LangChain
干什么:把“外部 API + 向量库 + LLM”用链条(Chain)和记忆(Memory)串成可复用模板。
适用:需要多步推理、调用外部工具(搜索、计算器、数据库)的问答或自动化流程。
优点:组件最全,社区最大,Python/JS/Java 三端都有。
缺点:抽象层厚重,版本更新快,API 常 Breaking;生产调试链式调用堆栈很痛苦。LlamaIndex(原 GPT Index)
干什么:专注“把私域文档塞进 LLM”——索引、检索、重排一条龙,主打 RAG(Retrieval-Augmented Generation)。
适用:企业知识库、政策手册、论文问答等“文档即答案”场景。
优点:内置 40+ 索引策略(树、图、关键词、向量混合),一句query_engine.query()就能用。
缺点:重检索轻推理,多跳逻辑或需要外部 API 时不如 LangChain 灵活;Java 生态尚弱。AutoGPT / AgentGPT
干什么:给 LLM 一个“目标”,让它自己拆任务 → 搜索 → 写代码 → 循环执行,直到认为完成。
适用:脑洞研究、竞品调研、写自动化报告等“能容忍慢+贵”的探索性任务。
优点:几乎零人工干预,真·自主智能体。
缺点:Token 消耗黑洞,容易陷入死循环;成功率低,生产慎用。Microsoft Guidance(前称 Guidance,.NET 阵营)
干什么:用“模板 + 约束”精准控制生成格式,保证 JSON/正则/语法 100 % 合规。
适用:需要稳定输出结构化数据(表单、配置、SQL、JSON Schema)的后台服务。
优点:模板语法直观,支持“中途执行 Python 代码”做逻辑判断;与 Azure OpenAI 深度集成。
缺点:仅 .NET/Python,社区比 LangChain 小;复杂流程仍需自己拼并发。Hugging Face Transformers Agents
干什么:在 HF 生态里让你“一句话调用 10 多个专家模型”——文生图、目标检测、TTS、翻译组合完成复杂任务。
适用:多模态 demo、快速验证“用多个小模型能不能解决大问题”。
优点:背靠 HF Hub,模型即插即用,代码量极少。
缺点:依赖 HuggingFace 推理端点,网络延迟大;生产级并发、缓存、监控都要自己再包一层。
一张图看懂怎么选
| 需求 | 首选框架 |
|---|---|
| 多工具链式问答 | LangChain |
| 纯文档问答 | LlamaIndex |
| 全自动任务探索 | AutoGPT |
| 稳定 JSON/表单输出 | Guidance |
| 多模态小模型组合 | HF Agents |
记住口诀:
“链式用 LangChain,文档用 Llama,自驱用 Auto,结构用 Guidance,多模态用 HF。”