塔城地区网站建设_网站建设公司_SQL Server_seo优化
2026/1/8 13:53:48 网站建设 项目流程

RAG(检索增强生成)曾是极其热门的话题之一。而本周非常幸运地看到了一些关于 RAG 的真正令人兴奋的新研究

让我们一起来看看近期出现的12 种 RAG 高级架构与方法

1. Mindscape-Aware RAG (MiA-RAG)

全局感知 RAG

MiA-RAG 通过首先构建整个文本的高层摘要(即“全局视图”),帮助 RAG 系统处理长文档。这个全局视图随后被用来指导系统检索什么内容以及如何回答,帮助模型将分散的证据连接起来,像人类阅读长文档一样进行推理。

感觉这个idea不错,之前看到过很多内容压缩的工作,这个工作是把全文摘要除了加到Context,也加到了Query里面,这样子有利于检索全文感知的Chunk

2. Multi-step RAG with Hypergraph-based Memory (HGMem)

基于超图记忆的多步 RAG

HGMem 是一种增强多步 RAG 的新记忆设计。它将检索到的信息组织成超图(Hypergraph),允许事实随着时间的推移相互连接和组合。这有助于模型构建结构化知识,进行更连贯的推理,并更好地理解复杂的上下文。

论文标题:Improving Multi-step RAG with Hypergraph-based Memory for Long-Context Complex Relational Modeling

论文链接:https://arxiv.org/abs/2512.23959

代码链接:https://github.com/Encyclomen/HGMem

这个看起来有点复杂,大家细读论文吧

3. QuCo-RAG

基于共现统计的动态 RAGQuCo-RAG 是一种动态 RAG 方法,它根据模型预训练数据的统计信息(而非模型自信度)来决定何时检索信息。它会标记罕见或可疑的实体,并检查它们是否在真实数据中共现(Co-occur),从而触发检索以减少幻觉并提高事实准确性。

论文标题:QuCo-RAG: Quantifying Uncertainty from the Pre-training Corpus for Dynamic Retrieval-Augmented Generation

论文链接:https://arxiv.org/pdf/2512.19134

代码链接:https://github.com/ZhishanQ/QuCo-RAG

这个想法很好,我们经常会面临一个情况是如果大模型已经学了相关查询对应的知识,我们还需要检索吗?这个工作应该一般部分回答了如何解决这个问题。

不过心里有个疑问?“根据模型预训练数据的统计信息(而非模型自信度)来决定何时检索信息”,如果每次都需要统计一个比较大的预训练预料,效率是不是很慢

4. HiFi-RAG

高保真分层 RAG

HiFi-RAG 是一个分层的 RAG 管道,在生成之前分多个阶段过滤检索到的文档。它利用Gemini 2.5 Flash来重构查询、修剪不相关的段落并附加引用,然后仅依靠Gemini 2.5 Pro进行最终的答案生成。

论文标题:HiFi-RAG: Hierarchical Content Filtering and Two-Pass Generation for Open-Domain RAG

论文链接:https://arxiv.org/pdf/2512.22442

5. Bidirectional RAG

双向 RAG该方法允许对检索语料库进行受控的“回写”(Write-back)。生成的答案只有通过接地性检查(Grounding checks,包括基于 NLI 的蕴含关系、来源归因验证和新颖性检测)后,才会被添加到知识库中。这使得系统能够在使用过程中扩展其知识库,而不会被幻觉污染。

论文标题:Bidirectional RAG: Safe Self-Improving Retrieval-Augmented Generation Through Multi-Stage Validation

论文链接:https://arxiv.org/pdf/2512.22199

6. TV-RAG

长视频时序 RAG

TV-RAG 是一个针对长视频的免训练(Training-free)RAG 框架,它为检索增加了时间感知能力。它利用时间偏移量对检索到的文本进行排序,并使用基于熵的采样来选择关键视频帧,帮助视频语言模型对齐视觉、音频和字幕信息,并在长视频时间轴上进行更准确的推理。

论文标题:TV-RAG: A Temporal-aware and Semantic Entropy-Weighted Framework for Long Video Retrieval and Understanding

论文链接:https://arxiv.org/pdf/2512.23483

7. MegaRAG

巨型多模态 RAG

MegaRAG 专为书籍等长文档构建,围绕多模态知识图谱设计。它从文本和视觉内容中提取实体和关系,构建分层图谱,并在检索和生成过程中使用它。这有助于模型进行全局推理,更准确地回答文本和视觉问题。

论文标题:MegaRAG: Multimodal Knowledge Graph-Based Retrieval Augmented Generation

论文链接:https://arxiv.org/pdf/2512.20626

8. AffordanceRAG

可供性感知 RAG这是专为移动机器人设计的零样本(Zero-shot)、多模态 RAG 系统。它通过探索环境的图像构建“可供性感知记忆”(Affordance-aware memory),利用视觉和区域特征检索物体和位置,并根据可供性得分对它们进行重排序,从而选择机器人能够在物理上执行的动作,改善现实世界中的操作能力。

论文标题:Affordance RAG: Hierarchical Multimodal Retrieval with Affordance-Aware Embodied Memory for Mobile Manipulation

论文链接:https://arxiv.org/pdf/2512.18987

9. Graph-O1

基于图的 O1 推理

Graph-O1 是一个针对文本属性图问答的代理式(Agent-based)GraphRAG 系统。它不像传统方法那样一次性读取整个图,而是使用蒙特卡洛树搜索(MCTS)和强化学习(RL)逐步探索最相关的节点和边,从而在 LLM 上下文限制内实现高效、结构化的推理。

论文标题:Graph-O1 : Monte Carlo Tree Search with Reinforcement Learning for Text-Attributed Graph Reasoning

论文链接:https://arxiv.org/pdf/2512.17912

10. SignRAG

路标识别 RAG

SignRAG 是建立在 RAG 之上的零样本交通标志识别系统。它使用视觉-语言模型来描述标志图像,从向量数据库中检索相似的标志设计,然后让 LLM 对候选标志进行推理以识别正确的标志,无需进行特定任务的训练。

论文标题:SignRAG: A Retrieval-Augmented System for Scalable Zero-Shot Road Sign Recognition

论文链接:https://arxiv.org/pdf/2512.12885

这个研究工作是在一个交通信号领域的多模态RAG,做法是比较常规的,图片的描述生成,然后索引构建,在检索的时候召回拼接到上下文去做回答

11. Hybrid RAG for Multilingual Document QA

多语言文档问答混合 RAG

这是一个针对充满噪声的历史报纸问答的多语言 RAG 系统。它通过语义查询扩展、使用倒数排名融合(Reciprocal Rank Fusion)的多查询检索,以及仅在存在证据时才回答的生成提示词,来处理 OCR 错误和语言演变问题。

论文标题:Hybrid Retrieval-Augmented Generation for Robust Multilingual Document Question Answering

论文链接:https://arxiv.org/pdf/2512.12694

代码链接:https://anonymous.4open.science/r/RAGs-C5AE/

12. RAGPart and RAGMask

RAG 安全防御机制

这是针对 RAG 语料库投毒攻击的轻量级防御措施。RAGPart利用密集检索器如何从分区数据中学习的特性,限制恶意文档的影响;而RAGMask则通过掩盖 Token 和检测异常的相似度偏移来标记可疑文档,且无需修改生成模型本身。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询