基于微调技术打造自己的私有LLM大模型

架构之美

共 2432字,需浏览 5分钟

 · 2023-11-01

最近直播超级多,预约保你有收获

近期直播:基于开源 LLM 大模型的微调(Fine tuning)实战

ChatGPT 是“大力出奇迹”的典型代表,通过千亿级训练参数带来惊人的智能,但大模型并不完美,甚至一些在我们看来很简单的任务都完成不了,比如我们构建一个简单计算任务(如下):

ChatGPT-4.0 错误回答如下:
我们必须明白,尽管 AI 在一定程度上模仿了人脑的工作方式,但实际上,机器人和人脑在处理信息时采用的策略有很大的不同。因此,即使在未来,我们也需要继续改进 AI 框架,以解决这种差距。比如一个百万位数的加法任务,ChatGPT-4 囿于 token 数的限制是不可能完成这个任务的,但人类却可以,这恰是人类和 AI 需要弥补的 GAP。
这就是为什么 LLM 大模型已经很强大了,我们还需要继续微调它的其中一个原因,除了这个原因外,还有4点需要微调的原因。
第二、缺乏专有数据,比如:企业内部的私有数据。
第三、缺乏最新数据,比如:GPT-4 的训练数据截止到2021年9月。
第四、预训练成本高,比如:GPT-3 预训练成本为140万美金。
第五、提升数据安全性,比如:企业私有数据是不能传递给第三方大模型的,基于开源大模型的微调才能满足业务的需求。

 1 

LLM 大模型微调(Fine tuning)技术

Fine tuning 是指在预训练模型的基础上,使用特定的任务数据对模型进行重新训练,以适应具体的应用场景或任务。通常,预训练模型通过大规模数据集进行事先训练,获得广泛的语言理解和生成能力。而 Fine tuning 则是在此基础上,针对特定任务的数据集进行进一步训练,以使模型更好地适应该任务,并提高其性能。通过 Fine tuning,可以使模型更加专业化,提高在具体任务上的准确性和效果。

 2 

微调(Fine tuning)实现原理

Fine tuning 是一种迁移学习的方法,它基于预先训练好的模型,提供特定语料进行微调,让机器人学习指定的数据格式进行模仿创新,使之适应特定的任务。

比如:让 ChatGPT 学习不同类型的古诗是怎么写的,他将拆解学习案例的语言结构、用词特点和格式等,以此作为依据进行创作。
这种方法能够节省大量的计算资源和时间,因为我们不需要从头开始训练一个全新的模型。
在 OpenAI 的情境下,我们通常会使用一个大型的预训练模型(比如:ChatGPT-3.5),然后通过 Fine tuning 的方式,让它适应我们特定的任务,例如文本分类、命名实体识别等。
OpenAI 的 Fine tuning 技术基于预训练模型,通过在小规模任务上对该模型进行微调来快速适应具体的任务。
其核心原理是将预训练模型的权重进行微调,以适应新任务的输入和输出。
Fine tuning 特点是模仿再创新。

 3 

微调(Fine tuning)适用场景

Fine tuning(微调),更适合于教授模型新的任务或模式,而不是新的信息。微调就是在大模型的数据基础上做二次训练,事先准备好一批 Prompt-Complition(类似于问答Q&A)的数据,生成新的模型,这个模型将会包含微调后的数据。比如,你可以使用 Fine tuning 训练模型生成特定风格的文本,或者执行特定的 NLP 任务。Fine tuning 并不适合于作为知识存储,也不适合于问答任务。

ChatGPT 就像一个已经训练好的家政阿姨,她懂中文,会做家务,但是对你家里的情况不了解。微调就相当于阿姨第一次到你家干活的时候,你要花一小时时间告诉她家里的情况,比如物件的摆放、哪些地方不能动,哪些地方要重点照顾。

 4 

微调(Fine tuning)训练步骤

Fine tuning 一般包括以下步骤:

第一、加载预训练模型:选择一个与所需任务相关的预训练模型,并加载其权重。
第二、选择任务数据集:选定特定任务所需的数据集。
第三、对模型进行微调:将任务数据集作为输入,以最小化模型在此数据集上的损失函数。在这个过程中,通常需要在训练集和验证集上进行多次迭代,以避免过拟合问题。
基于以上步骤,详细总结如下:

 5

免费超干货 LLM 大模型直播

为了帮助同学们掌握好大模型的微调技术,本周日晚8点,我会开一场直播和同学们深度聊聊大模型的技术、分布式训练和参数高效微调请同学点击下方按钮预约直播,咱们本周日晚8点不见不散哦~~

近期直播:基于开源 LLM 大模型的微调(Fine tuning)实战

END


浏览 925
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报