01 前言
LangChain和LangGraph在 2025 年10 月迎来V1.0 正式版(截至目前已更新至V1.1.0),这次升级极大提升了构建 AI Agent 的灵活性、扩展性与兼容性。
LangChain:
为构建基于大型语言模型的应用提供可复用组件与集成方案。
LangGraph:
智能体编排框架,以图结构构建大型语言模型智能体应用。
LangChain 中的智能体功能正是构建于 LangGraph 之上,以实现持久化执行、流式响应、人机协同、状态持久化等能力。但是使用LangChain构建智能体不必先了解LangGraph框架,LangGraph提供的是更底层的编排能力和运行时。
LangChain (121k star):https://github.com/langchain-ai/langchain
LangGraph (21.9k star):
https://github.com/langchain-ai/langgraph
02 概览
V1.0版本的LangChain主要带来了3大方面的升级:
- 标准构建Agent的方式,使用新版本定义的langchain.agent包的create_agent,支持如下**:**
- 插件式的中间件(Middleware),可以在Agent执行的任何步骤调整逻辑。
- 构建于LangGraph之上,可以借助LangGraph实现长任务、持久化、人类交互等。
- 结构化输出内容。
- 使用content_blocks标准化消息内容表示格式。不同的模型使用相同的API获取消息内容,并提供安全的类型检查等。
- 简化引入包的命名空间(namespace),非核心的包统一使用langchain-classic。
V1.0版本的LangGraph核心是配合LangChain并进一步提升了稳定性。废弃了LangGraph的create_react_agent,取而代之的是LangChain的create_agent方法,其是构建于LangGraph之上的。
03 新功能介绍
这里简单介绍新版的两大功能点,一个是create_agent,另一个是Middleware。
create_agent
create_agent定义了一个标准的Agent机制:调用模型,模型决策是否使用并调用工具,将工具结果返回模型进一步决策直到结束,模型就像Agent的“大脑”一样。
# pip3 install -U langchain from langchain.agents import create_agent from langchain.chat_models import init_chat_model import os # pip3 install -U langchain from langchain.agents import create_agent from langchain.chat_models import init_chat_model import os # 模型 os.environ["DEEPSEEK_API_KEY"] = "sk-..." llm = init_chat_model( model="deepseek-chat", temperature=0 ) # 创建agent agent = create_agent( model=llm, system_prompt="You are a helpful assistant." ) result = agent.invoke({ "messages": [ {"role": "user", "content": "what can you do?"} ] }) print(result) # 模型 os.environ["DEEPSEEK_API_KEY"] = "sk-7fd10806e7ad4375aa02b69612a8410d" llm = init_chat_model( model="deepseek-chat", temperature=0 ) # 创建agent agent = create_agent( model=llm, system_prompt="You are a helpful assistant." ) result = agent.invoke({ "messages": [ {"role": "user", "content": "what can you do?"} ] }) print(result)如上是一个简单的示例,先定义模型和agent,调用invoke传入用户问题,最后打印模型响应。
# 响应,截取了模型回复内容 {'messages': [HumanMessage(content='what can you do?', additional_kwargs={}, response_metadata={}, id='77bd3633-ebf4-46ae-8e2d-88f76279e20a'), AIMessage(content="I can assist you ......", additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 472, 'prompt_tokens': 15, 'total_tokens': 487, 'completion_tokens_details': None, 'prompt_tokens_details': {'audio_tokens': None, 'cached_tokens': 0}, 'prompt_cache_hit_tokens': 0, 'prompt_cache_miss_tokens': 15}, 'model_provider': 'deepseek', 'model_name': 'deepseek-chat', 'system_fingerprint': 'fp_eaab8d114b_prod0820_fp8_kvcache', 'id': 'a3cb733c-5b25-45f4-acbe-86f7150c90fa', 'finish_reason': 'stop', 'logprobs': None}, id='lc_run--019b0dd8-5eaa-7070-b8b7-96b51c19a6ed-0', usage_metadata={'input_tokens': 15, 'output_tokens': 472, 'total_tokens': 487, 'input_token_details': {'cache_read': 0}, 'output_token_details': {}}) ]}中间件(Middleware)
中间件(Middleware)在使用create_agent时传入,功能类似于Java语言的SPI(Service Provider Interface)。
在构建Agent时,Middleware为AI智能体(Agent)的执行流程提供了一组可插拔、可组合的钩子函数,可以帮助我们动态控制提示词、总结会话、选择工具调用、管理状态以及安全防护。
LangChain中包括了两类Middleware,一类是内建,另一类则是自定义。
1、内建
已经内建了一些常用的,例如:
SummarizationMiddleware: 会话太长时进行总结。
HumanInTheLoopMiddleware: 敏感工具执行时进行人类授权。
2、自定义
支持在Agent执行的每一步进行定义,如下图所示:
from langchain.agents.middleware import before_model, AgentState from langchain.messages import AIMessage from langgraph.runtime import Runtime from typing import Any @before_model(can_jump_to=["end"]) def check_message_limit(state: AgentState, runtime: Runtime) -> dict[str, Any] | None: iflen(state["messages"]) >= 50: return { "messages": [AIMessage("Conversation limit reached.")], "jump_to": "end" } return None agent = create_agent( model=llm, middleware=[check_message_limit],如上示例通过**@before_model**指定了在模型调用之前进行拦截,当消息超过50条时,直接返回达到模型限制。这是一种使用方式,也可以通过定义类并继承AgentMiddleware的方式实现Middleware的创建,并在create_agent时传入实例化对象。
04 总结
在 LangChain 的新版本中,Agent 的构建流程得到显著简化,同时功能进一步增强。其中 Middleware 机制的引入,大大提升了流程的可控性与扩展性。尤其对依赖上下文管理的 LLM 应用而言,现在可以更便捷地实现状态的追踪与动态更新。
结合 LangGraph 在编排与运行时方面的优势,推荐使用该框架来构建高效、可靠的智能体。
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。
掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!
1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。
2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
4. 大模型项目实战
学以致用,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!
这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】