随着大语言模型LLM的快速发展,模型参数量和数值精度成为关注的重点,比如Qwen-32B推理模型:320亿参数量、bfloat16的数值精度,精度问题直接影响了模型的计算复杂度、推理性能、以及存资源的消耗.
本文就常见的精度格式:FP32、FP16、BF16、FP8等进行详细解析,并讨论其在实际应用中的合理性给出建议。
前文介绍过推理模型的优化,其一就是进行量化,在参数量不变的情况下,要减少资源的消耗、加速计算的效率,通常采用模型量化在保证推理精度的情况下,将参数的数值精度从高精度量化到低精度比如BF16量化至INT8,以减少资源占用和提高推理性能。
模型量化实战,可以参考下面这篇文章:Qwen3-32B BF16量化至INT8,模型权重从64G降至32G:
1、什么是数值精度
大模型数值精度就是模型处理信息时的“数字分辨率”。在大语言模型中每个参数、每次中间计算结果都以特定格式(通常是浮点型)的数值存储,而不同的数据类型有不同的位数和表示范围,也决定了每个数据占用的显存和计算的速度以及精度,精度越高,占用显存越多,计算消耗资源越多。
数值精度与模型权重显存占用大小(不算KV Cache和激活值等):
| 精度 | 大小(字节) | 1B参数显存大小 |
|---|---|---|
| FP32 | 4 | 4 GB |
| FP16/BF16 | 2 | 2 GB |
| FP8 | 1 | 1 GB |
2、浮点数据类型和精度
2.1 浮点数据类型
简单来说,浮点数是一种用来表示实数的数值格式,它可以表示非常大和非常小的数,同时保持一定的精度。为什么叫“浮点数”?因为它的指数位和尾数位是可以浮动变化的,即同一个数可以用不同的指数位和尾数位来表示,从而适应不同的数量级。
根据IEEE 754标准,浮点数由符号位(Sign)、指数位(Exponent)和尾数位(Fraction,也称为小数位)三部分组成,类似于科学计数法。其中,符号位表示正负号,指数位表示数值的大小范围,尾数位则表示数值的精度。
FP32、FP16、BF16、FP8是三种常见的浮点数精度格式,下面将分别详细介绍。
| 格式 | 符号位 | 指数位 | 小数位 | 总位数 |
|---|---|---|---|---|
| FP32 | 1 | 8 | 23 | 32 |
| FP16 | 1 | 5 | 10 | 16 |
| BF16 | 1 | 8 | 7 | 16 |
| FP8 E4M3 | 1 | 4 | 3 | 8 |
| FP8 E5M2 | 1 | 5 | 2 | 8 |
2.3单精度浮点数FP32
FP32即float32,全称Single-precision floating-point,单精度浮点数,使用32位二进制来表示浮点数,其中1位表示符号位,8位表示指数位,23位表示尾数位。它提供了较高的数值精度和更广的数值范围,从而在模型训练中保持更好的稳定性和收敛性,是深度学习的传统标准数据精度,长期作为深度学习训练和推理的默认选择,即便是今天,许多关键计算仍会在FP32下进行以确保稳定性。
然而FP32的高精度的缺点是资源的消耗(计算和显存),相较于FP16,FP32需要两倍的存储空间,如对于推理模型权重,FP32模型权重是FP16模型权重的两倍。
- Sign(符号位):1位,0表示整数,1表示负数
- Exponent(指数位):8位,表示整数部分
- Fraction(尾数位):23位,表示小数部分,隐含了首位的1,实际尾数精度24位
2.4半精度浮点数FP16
FP16即float16,Half-precision floating-point,半精度浮点数,使用16位二进制来表示浮点数,其中1位符号位,5位指数位,10位尾数位。相较于FP32,FP16具有明显的显存和计算优势,大幅减少了模型权重对于显存的占用,同时在支持FP16的GPU上实现更高的计算性能。
由于使用16位二进制表示浮点数,范围较小,容易导致梯度下溢或者激活值上溢,一般在模型训练领域于FP32混合使用形成“混合精度训练”方案。
- Sign(符号位):1位,0表示整数,1表示负数
- Exponent(指数位):5位,表示整数部分
- Fraction(尾数位):10位,表示小数部分,隐含了首位的1,实际尾数精度11位
2.5 BF16浮点数
BF16即Bfloat16,Brain Floating Point 16,是谷歌专门为机器学习设计,使用16位二进制表示浮点数,但是不同于FP16的是,BF16在指数位上分配了8位,扩大了表示范围,尾数位减少到7位,而牺牲了一定的数值精度,从而使得其在保持足够数值范围(与FP32相同)的同时减少显存占用和计算速度,也保持了在训练过程中数值的稳定性,但是BF16需要考虑硬件和软件的支持。
- Sign(符号位):1位,0表示整数,1表示负数
- Exponent(指数位):8位,表示整数部分
- Fraction(尾数位):7位,表示小数部分,也隐含了首位的1,实际尾数精度8位
2.6 FP8浮点数
FP8是NVIDIA从H100开始增加的一种8位浮点数表示法,主要有两种变体:E4M3(4位指数和3位尾数)和E5M2(5位指数和2位尾数),在表示范围内,E4M3 更精准,而 E5M2 有更宽的动态范围。FP8的计算精度和表示范围较FP16和FP32更低,但其内存占用和计算效率最高,能在保持一定精度的同时极大提升计算吞吐、降低资源消耗,正逐渐成为推理部署的新选择。与BF16一样,FB8需要硬件和相关软件的支持。
如下图,NVIDIA官方提供的浮点数:0.3952在不同浮点数值类型下的值,直观的看到FP16和BF16的精度最好,FP8的精度低一些。
图片来源:nvidia.com
3 什么是混合精度?
有了浮点数据类型,为什么还需要混合精度?
随着大语言模型的发展,参数量急剧增长:7B、32B、671B等从几十亿到千亿、万亿规模,训练所需要的显存和算力也随之增长,训练时间和硬件成本也随之增长(动辄训练需要万卡集群和长达几个月的训练时间)。
在大模型领域,为了平衡精度与计算效率,常常使用混合精度训练,例如同时使用FP16和FP32,使用FP16可以加快计算速度、减少显存占用,但可能会因为数值范围小而出现溢出或下溢,因此通常将权重保持在FP32,而将部分计算使用FP16,并通过梯度缩放等技术来保持训练的稳定性。
4、精度选择策略
精度选择本质上是数值精度、显存、计算效率与功耗的多目标优化问题,不同阶段有不同侧重点。
- 对于深度学习模型或者超大模型训练的场景,可以使用FP32来保证数值稳定性。FP32提供了比FP16/BF16更高的精度和稳定性,可在保持高精度的情况下获取更好的收敛效果和更高的训练精度。但是需要占用更多的计算资源和显存。
- 如果模型训练对数值精度稳定性要求极高的场景下,梯度值可能极小,激活值可能极大,BF16因数值范围与FP32接近而成为现代训练首选,结合混合精度技术,并充分利用现代GPU硬件的加速能力,可在保持稳定性的同时提升2-3倍训练速度,同时大大降低了训练需要的资源(计算资源和显存资源)。
- 对于推理场景,主要关注吞吐量和能耗成本。FP16/BF16就能提供良好平衡;追求极致效率则使用INT8量化,虽然会损失约1-2%精度,但可获得4倍内存节省和显著加速。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2025 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
以上资料如何领取?
为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!
不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。