简单几步,免费微调大语言模型(非常详细)零基础入门到精通,收藏这一篇就够了

我总是受大脑运行方式的启发…大脑收集信息,然后对信息进行加权再输出,问题就在于,怎么调整这些权重使这些信息发挥作用。

—— 杰弗里·辛顿

今天和大家分享下,怎么用开源工具免费微调大模型。

要用到的工具有:

  • autotrain:huggingface开放的零代码大模型微调平台,无需编程,只需要通过简单的界面操作就能够进行

  • colab:一个在线交互式Python运行环境,主要是用来提供大模型微调时的云端计算资源

接下来大家按照以下步骤操作,就能快速拥有一个属于自己的大模型

>>>环境部署<<<

AutoTrain部署

1、注册huggingface账号

https://huggingface.co/autotrain

2、登录并创建space

3、填写信息

1)SDK选docker下的autotrain

2)pause on failure 最好填0,不然训练失败这个space就用不了了

4、创建完成后,autotrain就部署好了

**Colab部署
**

1、进入colab,先确认有1个google账号

https://colab.research.google.com/github/huggingface/autotrain-advanced/blob/main/colabs/AutoTrain_ngrok.ipynb

2、点击Hugging Face Write Token,获取需要填写的huggingface_token

3、点击ngrok auth token,获取需要填写的ngrok_token

4、点击run,等待一下

5、下方出现这个link后点击,进入autotrain的微调界面

>>>参数调整<<<

1、环境部署完成,正式进入大模型微调环节

2、选择模型,这里以参数较小的qwen2_7B为例

2、上传微调模型用到的数据集

1)text:是指数据集中数据所在列和text之间的映射关系,这里就填数据集中的字段名

2)对于数据集的数据结构,不同的微调方法,对应不同的数据结构,在这里采用SFT,数据格式就要求设计成单列的信息

3、选择参数,可以直接使用默认值。如果要做一些个性化调整,可以参考左侧的documentation使用说明

4、点击start training,进入训练阶段

>>>模型微调<<<

1、回到colab,能看到模型微调的进展。训练时间较长,只要没有出现error信息,模型微调就是在正常运行中

2、训练完成后,会在huggingface个人主页中展示训练好的模型

恭喜,到这一步,你已经拥有一个自己的大模型了

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文转自 https://blog.csdn.net/Python_paipai/article/details/140877798,如有侵权,请联系删除。

猜你喜欢

转载自blog.csdn.net/2401_84206094/article/details/143324910