先来看看RAG系统中的三个模型,用户查询的问题需要经过Embedding模型,然后从向量库里检索,再经过Rerank模型重排序,拿到最精准的N条结果,最后是生成式大模型归纳总结生成回答。
其中前两个并不是我们平时说的“大”模型,而是“小”模型。下面我再来详细解释一下这三类模型。
RAG系统通常包含两个核心部分:
1)检索器:
负责根据用户查询,从知识库(文档库)中找到最相关的片段。Embedding操作主要发生在这里。
2)生成器:
负责将用户查询和检索到的相关片段作为输入,生成最终的自然语言回答。这里通常需要一个大语言模型。
关键点:检索器中的Embedding模型和生成器中的大模型是两个独立且功能不同的模型。
Embedding模型的特点
1)核心任务:
将输入的文本(句子、段落、文档)映射到一个固定维度的向量(数字数组)。这个向量旨在捕捉文本的语义信息。
2)训练目标:
主要目标是让语义相似的文本在向量空间中的距离更近(例如,通过余弦相似度衡量)。常见的训练目标包括:
- 对比学习:让正样本对(相似文本)的向量接近,负样本对(不相似文本)的向量远离。
- 掩码语言建模:像BERT那样,预测被遮盖的词,间接学习上下文表示。
- 相似度预测:直接预测文本对的相似度分数。
3)模型规模:Embedding模型通常比生成大模型小得多!
- 常见的Embedding模型如
all-MiniLM-L6-v2(约2200万参数),text-embedding-ada-002(OpenAI, 参数量未公开但远小于GPT-3),e5-large-v2(约3.35亿参数) 等。 - 相比之下,生成大模型如 GPT-3 (1750亿参数), Llama 2 70B (700亿参数), Claude 2 (未公开但估计千亿级) 规模庞大得多。
3)架构:
大多基于Transformer架构(如BERT、RoBERTa的变体),但专门优化了向量表示的质量和效率,而不是文本生成能力。Sentence-BERT (SBERT) 是一个经典的例子,它在BERT基础上添加了池化层,使其更适合生成句子级Embedding。
4)部署:
由于规模相对较小,Embedding模型更容易在本地部署、优化(如量化、蒸馏)或通过API(如OpenAI Embedding API, Cohere Embed API)高效调用,计算成本远低于调用生成大模型。
为什么Embedding模型不需要“大模型”?
1)任务相对简单:
将文本编码成向量是一个“理解”和“表示”的任务,其复杂度远低于“生成”连贯、相关、符合上下文的长文本。生成模型需要学习语言的语法、事实知识、推理能力、风格控制等,这需要巨大的模型容量。
2)效率至关重要:
在RAG的检索阶段,需要对知识库中的所有文档(可能数百万甚至数十亿个片段)进行Embedding并建立索引,还需要对每个用户查询进行实时Embedding。使用轻量高效的Embedding模型是保证系统响应速度和可扩展性的关键。用生成大模型做Embedding会极其缓慢且昂贵。
3)专门优化:
现有的Embedding模型已经在海量文本上针对语义相似度任务进行了专门训练或微调,其表示能力对于检索任务已经足够好,并且效率远高于通用生成大模型。
Rerank模型
在RAG(检索增强生成)技术中,Rerank模型(重排序模型)是检索阶段的另一个关键组件,但它与Embedding模型有本质区别,且通常也不是“大模型”。
Rerank模型用于对初步检索结果进行精细排序,解决Embedding检索的局限性:
1)问题场景:
Embedding模型通过向量相似度(如余弦距离)快速召回候选文档(如Top 100),但可能因以下原因导致排序不准:
- 语义偏差:向量无法精确匹配复杂语义(如否定、词序、上下文依赖)。
- 噪声干扰:相似但不相关的文档被误召回。
2)Rerank的解决方案:
对初步召回的候选集(如Top 100)逐条进行深度语义分析,重新计算相关性得分,最终输出更精准的排序(如Top 5)。
为什么Rerank模型不是“大模型”?
1)任务专注性:
Rerank模型仅需判断查询与文档的相关性(输出一个0~1的分数),无需生成文本,因此模型复杂度远低于生成式大模型(如GPT-4)。
2)典型模型示例:
- 轻量级:
BGE-reranker-base(1.09亿参数)、ms-marco-MiniLM-L-12-v2(3300万参数)。 - 高性能:
Cohere Rerank(参数量未公开,但专为重排序优化)、bge-reranker-large(5.6亿参数)。
3)对比生成大模型:
即使最大的Rerank模型(如bge-reranker-large)参数量也仅为GPT-3(1750亿)的1/300,计算成本显著更低。
总结:
1、Embedding负责“广度”:快速从海量数据中召回潜在相关文档。
2、Rerank负责“精度”:在小规模候选集中筛选最相关结果。
3、生成模型负责“整合”:基于精准结果生成最终答案。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。
希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01教学内容
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
vx扫描下方二维码即可
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04视频和书籍PDF合集
从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
0690+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)
07 deepseek部署包+技巧大全
由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发