榆林市网站建设_网站建设公司_全栈开发者_seo优化
2025/12/17 23:42:51 网站建设 项目流程

本文详细介绍了大语言模型(LLM)的五大训练基础概念:预训练阶段让模型通过无监督学习大量文本知识;有监督微调(SFT)赋予模型对话能力;人类反馈强化学习(RLHF)优化回答质量;知识蒸馏(KD)提升小模型性能;LoRA实现高效参数微调。文章还阐述了LLM作为自回归模型的训练流程,包括输入输出处理、损失函数和学习率设置等关键要素,为理解大模型训练提供了全面的基础知识。

1、LLM 训练基础概念

1.1 预训练

(Pretrain)

LLM 首先要学习的并非直接与人交流,而是让网络参数中充满知识的墨水,“墨水” 理论上喝的越饱越好,产生大量的对世界的知识积累。 预训练就是让 Model 先埋头苦学大量基本的知识,例如从 Wiki 百科、新闻、书籍整理大规模的高质量训练数据。 这个过程是“无监督”的,即人类不需要在过程中做任何“有监督”的校正,而是由模型自己从大量文本中总结规律学习知识点。 模型此阶段目的只有一个:学会词语接龙。例如我们输入“秦始皇”四个字,它可以接龙“是中国的第一位皇帝”。

1.2 有监督微调(Supervised Fine-Tuning)

经过预训练,LLM 此时已经掌握了大量知识,然而此时它只会无脑地词语接龙,还不会与人聊天。

SFT 阶段就需要把半成品 LLM 施加一个自定义的聊天模板进行微调。例如模型遇到这样的模板【问题->回答,问题->回答】后不再无脑接龙,而是意识到这是一段完整的对话结束。 称这个过程为指令微调,就如同让已经学富五车的「牛顿」先生适应 21 世纪智能手机的聊天习惯,学习屏幕左侧是对方消息,右侧是本人消息这个规律。

1.3 人类反馈强化学习(Reinforcement Learning from Human Feedback, RLHF)

在预训练与有监督训练过程中,模型已经具备了基本的对话能力,但是这样的能力完全基于单词接龙,缺少正反样例的激励。 模型此时尚未知什么回答是好的,什么是差的。

希望模型能够更符合人的偏好,降低让人类不满意答案的产生概率。 这个过程就像是让模型参加新的培训,优秀员工作为正例,消极员工作为反例,学习如何更好地回复。可以使用 RLHF 系列之-直接偏好优化(Direct Preference Optimization, DPO)或与 PPO(Proximal Policy Optimization)。DPO 相比于 PPO:

  • DPO 通过推导 PPO 奖励模型的显式解,把在线奖励模型换成离线数据,Ref 模型输出可以提前保存。
  • DPO 性能几乎不变,只用跑 actor_model 和 ref_model 两个模型,大大节省显存开销和增加训练稳定性。

RLHF 训练步骤并非必须,此步骤难以提升模型“智力”而通常仅用于提升模型的“礼貌”,有利(符合偏好、减少有害内容)也有弊(样本收集昂贵、反馈偏差、多样性损失)。

GRPO(Generalized Reinforcement Preference Optimization)是一种改进的强化学习方法,用于优化模型输出更符合人类偏好。它是对 PPO(Proximal Policy Optimization)+ RLAIF(Reinforcement Learning from AI Feedback)等方法的泛化和增强,本质上是对 RLHF(人类反馈强化学习)的一种高效实现。GRPO 的目标:从两个或多个候选输出中,优化模型朝更高偏好方向移动,而不是只学单个“正确答案”。

1.4 知识蒸馏(Knowledge Distillation, KD)

经过预训练、有监督训练、人类反馈强化学习,模型已经完全具备了基本能力,通常可以学成出师了。

知识蒸馏可以进一步优化模型的性能和效率,所谓知识蒸馏,即学生模型面向教师模型学习。 教师模型通常是经过充分训练的大模型,具有较高的准确性和泛化能力。 学生模型是一个较小的模型,目标是学习教师模型的行为,而不是直接从原始数据中学习。

在 SFT 学习中,模型的目标是拟合词 Token 分类硬标签(hard labels),即真实的类别标签(如 0 或 100)。 在知识蒸馏中,教师模型的 softmax 概率分布被用作软标签(soft labels)。小模型仅学习软标签,并使用 KL-Loss 来优化模型的参数。

通俗地说,SFT 直接学习老师给的解题答案。而 KD 过程相当于“打开”老师聪明的大脑,尽可能地模仿老师“大脑”思考问题的神经元状态。知识蒸馏的目的只有一个:让小模型体积更小的同时效果更好。 然而随着 LLM 诞生和发展,模型蒸馏一词被广泛滥用,从而产生了“白盒/黑盒”知识蒸馏两个派别。 GPT-4 这种闭源模型,由于无法获取其内部结构,因此只能面向它所输出的数据学习,这个过程称之为黑盒蒸馏,也是大模型时代最普遍的做法。黑盒蒸馏与 SFT 过程完全一致,只不过数据是从大模型的输出收集。

1.5 LoRA (Low-Rank Adaptation)

LoRA 是一种高效的参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)方法,旨在通过低秩分解的方式对预训练模型进行微调。 相比于全参数微调(Full Fine-Tuning),LoRA 只需要更新少量的参数。 LoRA 的核心思想是:在模型的权重矩阵中引入低秩分解,仅对低秩部分进行更新,而保持原始预训练权重不变。

2、LLM 训练流程简介

训练任何模型,需要清楚两个问题:

  1. 明确模型的输入与输出
  2. 定义模型的损失函数

LLM,即大语言模型,本质上是一个“token 接龙”高手,它不断预测下一个词符。这种推理生成方式被称为自回归模型,因为模型的输出会作为下一轮的输入,形成一个循环。

刚开始,一个随机大模型,面对输入,它预测的下一个字符完全是随机的

那么,它是如何学习的呢?在自注意力机制中,通过为 qk 增加掩码,softmax 后将负无穷对应到 0,隐藏掉 n 字符以后的内容。这样,输出的第 n+1 个字符只能关注到前 n 个字符,如同戴上了一副“只看过去”的眼镜。

通过训练,大模型从一个随机混沌的状态,逐渐学会输入与下一个词符之间的潜在联系。

以上是为了便于理解而抽象出来的过程。

大模型的输入是由数字组成的张量,而非自然语言字符。自然语言通过 tokenizer(可以理解为一种词典)映射到词典的页码数字 ID,进行输入计算。得到的输出数字再利用词典进行解码,重新得到自然语言。

大模型的输出是一个 N*len(tokenizer)的多分类概率张量,在 Topk 中选出的有概率的 token,得到下一个词。

损失函数:交叉熵损失

学习率:与 batchsize 成倍数关系,batchsize 变大一倍,学习率也增大一倍

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询