伊春市网站建设_网站建设公司_产品经理_seo优化
2026/1/5 20:23:12 网站建设 项目流程

先来看看RAG系统中的三个模型,用户查询的问题需要经过Embedding模型,然后从向量库里检索,再经过Rerank模型重排序,拿到最精准的N条结果,最后是生成式大模型归纳总结生成回答。

其中前两个并不是我们平时说的“大”模型,而是“小”模型。下面我再来详细解释一下这三类模型。

RAG系统通常包含两个核心部分:

1)检索器:

负责根据用户查询,从知识库(文档库)中找到最相关的片段。Embedding操作主要发生在这里。

2)生成器:

负责将用户查询和检索到的相关片段作为输入,生成最终的自然语言回答。这里通常需要一个大语言模型。

关键点:检索器中的Embedding模型和生成器中的大模型是两个独立且功能不同的模型

Embedding模型的特点

1)核心任务:

将输入的文本(句子、段落、文档)映射到一个固定维度的向量(数字数组)。这个向量旨在捕捉文本的语义信息

2)训练目标:

主要目标是让语义相似的文本在向量空间中的距离更近(例如,通过余弦相似度衡量)。常见的训练目标包括:

  • 对比学习:让正样本对(相似文本)的向量接近,负样本对(不相似文本)的向量远离。
  • 掩码语言建模:像BERT那样,预测被遮盖的词,间接学习上下文表示。
  • 相似度预测:直接预测文本对的相似度分数。

3)模型规模:Embedding模型通常比生成大模型小得多!

  • 常见的Embedding模型如all-MiniLM-L6-v2(约2200万参数),text-embedding-ada-002(OpenAI, 参数量未公开但远小于GPT-3),e5-large-v2(约3.35亿参数) 等。
  • 相比之下,生成大模型如 GPT-3 (1750亿参数), Llama 2 70B (700亿参数), Claude 2 (未公开但估计千亿级) 规模庞大得多。

3)架构:

大多基于Transformer架构(如BERT、RoBERTa的变体),但专门优化了向量表示的质量和效率,而不是文本生成能力。Sentence-BERT (SBERT) 是一个经典的例子,它在BERT基础上添加了池化层,使其更适合生成句子级Embedding。

4)部署:

由于规模相对较小,Embedding模型更容易在本地部署、优化(如量化、蒸馏)或通过API(如OpenAI Embedding API, Cohere Embed API)高效调用,计算成本远低于调用生成大模型。

为什么Embedding模型不需要“大模型”?

1)任务相对简单:

将文本编码成向量是一个“理解”和“表示”的任务,其复杂度远低于“生成”连贯、相关、符合上下文的长文本。生成模型需要学习语言的语法、事实知识、推理能力、风格控制等,这需要巨大的模型容量。

2)效率至关重要:

在RAG的检索阶段,需要对知识库中的所有文档(可能数百万甚至数十亿个片段)进行Embedding并建立索引,还需要对每个用户查询进行实时Embedding。使用轻量高效的Embedding模型是保证系统响应速度和可扩展性的关键。用生成大模型做Embedding会极其缓慢且昂贵。

3)专门优化:

现有的Embedding模型已经在海量文本上针对语义相似度任务进行了专门训练或微调,其表示能力对于检索任务已经足够好,并且效率远高于通用生成大模型。

Rerank模型

在RAG(检索增强生成)技术中,Rerank模型(重排序模型)是检索阶段的另一个关键组件,但它与Embedding模型有本质区别,且通常也不是“大模型”

Rerank模型用于对初步检索结果进行精细排序,解决Embedding检索的局限性:

1)问题场景:
Embedding模型通过向量相似度(如余弦距离)快速召回候选文档(如Top 100),但可能因以下原因导致排序不准:

  • 语义偏差:向量无法精确匹配复杂语义(如否定、词序、上下文依赖)。
  • 噪声干扰:相似但不相关的文档被误召回。

2)Rerank的解决方案:
对初步召回的候选集(如Top 100)逐条进行深度语义分析,重新计算相关性得分,最终输出更精准的排序(如Top 5)。

为什么Rerank模型不是“大模型”?

1)任务专注性:
Rerank模型仅需判断查询与文档的相关性(输出一个0~1的分数),无需生成文本,因此模型复杂度远低于生成式大模型(如GPT-4)。

2)典型模型示例:

  • 轻量级:BGE-reranker-base(1.09亿参数)、ms-marco-MiniLM-L-12-v2(3300万参数)。
  • 高性能:Cohere Rerank(参数量未公开,但专为重排序优化)、bge-reranker-large(5.6亿参数)。

3)对比生成大模型:
即使最大的Rerank模型(如bge-reranker-large)参数量也仅为GPT-3(1750亿)的1/300,计算成本显著更低。

总结:

1、Embedding负责“广度”:快速从海量数据中召回潜在相关文档。

2、Rerank负责“精度”:在小规模候选集中筛选最相关结果。

3、生成模型负责“整合”:基于精准结果生成最终答案。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01教学内容

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

vx扫描下方二维码即可

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:

04视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)

05行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!

0690+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询