兴安盟网站建设_网站建设公司_会员系统_seo优化
2026/1/5 19:10:40 网站建设 项目流程

本文是对LangGraph学习历程的系统总结,从State管理、Workflow控制、Graph配置三大维度和基础、应用、高级三个层次构建了完整知识体系。文章结合Agent的四大要素和ReAct框架,展示了各知识点在思考、行动、观察三个阶段中的实际作用,为构建AI Agent提供了清晰的技术路线图,是开发者不可多得的珍藏指南。


重要的不是我们是否会被AI替代,

而是我们要比被替代的人更懂AI。

大家好,自去年9月开始计划认真学习LangGraph以来,我在主业之余尽力保持一周一更的节奏,没想到也坚持了19期了。回顾截至目前的学习历程,我们从最基本的Chat Model接口、Message类的使用开始,逐步理解了State的内涵、定义与管理方法,掌握了基本的Graph、Agent的构建与使用,还探索了短期Mem)ory的简易实现、利用Conditional Edges、Send、Command等工具实现更复杂的流程控制等。

趁着元旦假期,我觉得需要写一篇年度总结,来系统梳理一下这段学习旅程的收获。【长文警告】

对于老朋友来说,本文将是一个回顾,目的是以一个更系统化的视角来审视我们已学习的内容及其相互关系,加深我们对LangGraph的理解。而对新朋友来说,本文将是一张地图(我会把往期文章链接放在相应的位置),让你在学习LangGraph的过程中可以循序渐进,不会在看似杂乱的概念、定义中迷失。

首先,我想对我们已学知识点进行一个体系化的回顾。

一、LangGraph知识体系的三大维度

通过19期的学习,我们已经掌握了大量的LangGraph知识点。我认为,我们可以从纵横两个维度来对这些知识点进行分类。

具体而言,从横向来看,我们学习的知识按功能可以分为三大类:State的创建与管理、Workflow的搭建与控制、Graph的配置。

从纵向来看,我们可以按从基础到高级的思路将相关知识点划分为三个层次,即:基础层、应用层和高级层(称呼不重要)。基础层让我们掌握LangGraph的基本概念和结构,应用层让我们能够构建实际可用的Agent,高级层则让我们能够构建更强大、更灵活的Agent系统。

这两个维度相互交叉,共同构成了LangGraph的知识体系。下面,让我们按照这三大类知识,逐一梳理每个维度在不同层次上的知识点。

2.1 第一类:State的创建与管理

State是Graph中流动的信息载体,定义了数据的结构和存储方式。作为AI Agent工作流建模的形式,Graph的核心在于将与model交互产生的信息(最典型的如messages)保存在state中,从而实现对话历史的管理((实现short-term memory)和上下文的传递等功能。

基础层:State的基本概念和使用

在基础层,我们主要需要掌握State的基本概念和使用方法。对此,我们学习了State Schema的定义方式。

State Schema可以用TypedDictPydantic Modeldataclass来定义,其中前两种比较常用。TypedDict主打轻量级,它本质上就是Python标准库中的类型提示工具,不需要安装额外的依赖,使用起来非常方便。但它只有类型提示作用,不会在运行时进行强制验证。Pydantic Model则提供了更强大的功能,包括运行时验证、默认值设置、字段约束等。当你传入的数据不符合要求时,Pydantic会在程序运行时立即报错,这对于构建健壮的AI Agent来说是非常重要的。

在实际开发中,如果你的项目比较简单,不需要复杂的验证逻辑,或者你希望保持代码的轻量级,那么TypedDict是个不错的选择。如果你需要严格的数据验证,或者你的State结构比较复杂,需要字段间的依赖关系,那么Pydantic Model会更合适。

应用层:State的更新机制与短期记忆实现

在应用层,我们需要掌握State的更新机制及其基本应用。

首先,我们理解了State的更新其实是一个两阶段的过程。第一阶段是节点函数处理业务逻辑,接收当前的state,根据业务逻辑进行处理,然后返回一个字典,包含需要更新的字段和新值。第二阶段是Reducer函数决定如何将节点返回的新值更新到state中,是覆盖还是拼接等。

而理解State更新机制的关键又在于理解Reducer函数。Reducer函数有多种形式,如add_messages用于消息累积,实现对话历史管理,避免消息被覆盖;operator.add用于数值累加,适合统计总分、计数等场景;operator.extend用于列表扩展,将新列表的元素追加到当前列表中。当内置的Reducer无法满足需求时,我们还可以自定义Reducer函数,实现特殊合并逻辑,比如取最大值、自定义字典合并等。

有时候,即使我们已经为某个字段设定了Reducer,但在某些特殊场景下,我们可能希望忽略这个Reducer,直接用新值覆盖state中的旧值。这时候,我们就可以使用Overwrite机制,通过Overwrite类型或__overwrite__键来强制覆盖。

同时,通过对State Schema中的messages字段管理和使用add_messages Reducer,我们能够实现对话历史的管理,让Agent能够"记住"之前的对话内容,这也是实现Agent短期记忆功能的基础。

高级层:State的观察、回溯与精细管理

在高级层,我们需要掌握State管理的高级功能,包括更精细的状态可见性管理,以及状态快照、回溯等。对此,我们学习了input/output schemaprivate schema和Checkpoints机制。

通过input/output schema,我们可以控制Graph对外接口的可见性,简化用户调用时的输入输出格式。比如,我们可能希望用户只需要传入简单的参数,而不需要了解Graph内部复杂的State结构。同时,我们也希望Graph返回给用户的只是处理结果,而不是整个内部State。

通过private schema,我们可以定义只在节点间传递但不对外暴露的中间状态,保持内部实现细节的封装性。这些状态在Graph执行过程中会被使用,但不会出现在Graph的最终输出中,就像是我们程序中的"内部变量"一样。

Checkpoints(检查点)是State管理的高级功能,它会在Graph执行的每个super-step执行后自动保存State快照,记录State的变化过程。通过利用Checkpoints,当Graph执行出错时,我们可以回溯到出错前的checkpoint,查看当时的State值,找出问题所在。我们还可以从任意一个checkpoint重新开始执行,或者修改checkpoint的State后继续执行,实现"时间旅行"的效果。

2.2 第二类:Workflow的搭建与控制

Workflow指Graph的执行逻辑,定义了数据如何在节点间流动。这是对已经"推理、规划"好的结果的执行和实施。需要注意的是,“推理、规划”本身,是大模型完成的,当我们使用Conditional Edge、Command、Send等机制时,实际上是在实现LLM已经规划好的行动路径,因此它们在Agent四要素中是属于执行要素的内容。

基础层:Graph的基本结构

在基础层,我们需要掌握Graph的基本结构,理解节点和边的概念。对此,我们学习了Node(节点)函数编写、Edge(边)连接方式,以及START/END节点的使用。

Node(节点)是Graph的基本执行单元,每个节点都是一个函数,接收State作为输入,处理业务逻辑,然后返回State的更新。Edge(边)连接节点,定义了数据如何在节点间流动。最基础的工作流控制就是Edge,它连接节点,实现线性流程。START和END则定义了图的入口和出口,明确了Graph的执行边界。这些是最基础的概念,但也是理解Graph执行逻辑的前提。

应用层:条件分支、动态控制与循环

在应用层,我们需要掌握工作流的控制机制,让Graph能够根据不同的情况执行不同的路径。对此,我们学习了Conditional Edge(条件边)以及如何通过条件边实现循环机制(Loop),还有如何使用Send实现Map-Reduce的数据处理模式,以及如何使用Command在节点内同时完成状态更新和流程控制。

Conditional Edge(条件边)顾名思义,就是带条件判断的边,即根据条件是否满足,决定走哪条边。它通过routing_function(路由函数)实现条件判断逻辑,通过path_map(路径映射)定义分支走向。

条件边让我们能够根据State的值或LLM的输出(如是否有tool_calls)来决定下一步的执行路径。通过条件边,我们可以实现循环(Loop),让Graph能够重复执行某些节点。而结合State、Reducer和Loop,我们就能实现带记忆的Agent,让Agent能够"记住"之前的对话内容。

Send是LangGraph提供的一个特殊对象,它主要用于在条件边的路由函数中实现动态工作流控制。与普通条件边只能返回单个目标节点名称不同,Send允许我们返回一个Send对象列表,每个Send对象都指定了一个目标节点和要传递给该节点的自定义状态。这样,我们就可以在运行时根据数据内容动态地创建任意数量的边,实现更高效的并行处理。Send特别适合Map-Reduce模式,当你需要对一个列表中的每个元素应用相同的处理逻辑时,Send是最佳选择。

Command是LangGraph中另一个非常强大且实用的功能,它允许节点在执行过程中同时更新Graph的状态并控制流程走向。简单来说,Command就像是给节点赋予了"决策权"——它不仅能够处理数据、更新状态,还能直接决定下一步要执行哪个节点,而不需要依赖外部的边或路由函数。使用Command后,在一个节点函数内部就能同时完成状态更新和路由决策,这样逻辑集中在一个地方,代码更清晰、简洁、易于维护。

高级层:模块化设计与跨层级控制

在高级层,我们需要掌握模块化设计,让复杂Agent的结构更清晰。对此,我们学习了Subgraph(子图)的使用,以及如何通过Subgraph和Command实现跨层级流程控制。

Subgraph(子图)是优化复杂工作流的一种方案。简单来说,子图本身是一个独立的Graph,但它又能作为一个节点(Node)嵌入到另一个Graph(父图)中。这样做的好处在于,我们可以将复杂的功能拆分成独立的子图,使代码结构更清晰。子图可以在多个主图中重复使用,实现代码复用。通过嵌套的Graph结构,我们可以更好地组织和管理复杂的Agent逻辑。

在ReAct Agent中,我们可以用子图封装工具调用循环,让主图负责管理对话循环。这样,当主图处理用户输入时发现需要使用工具,它只需要调用子图,子图会自己处理完所有的工具调用逻辑,然后返回最终结果给主图,主图再回复用户即可。

而通过Subgraph和Command的跨层级跳转(graph=Command.PARENT),我们可以实现更复杂的多Agent系统,让不同的Agent能够协同工作。

2.3 第三类:Graph的配置

Graph的配置决定了Graph在运行时的行为方式和能力边界。这包括模型的选择、Prompt的设置、工具的绑定等,这些配置直接影响Agent的"思考"能力。

基础层:模型的基础调用能力

在基础层,我们需要掌握如何初始化Chat Model,以获得调用大模型的能力。

Chat Model是LangChain中提供大模型调用能力的关键组件,它为我们使用各式各样的模型提供了统一的接口,让我们无须事先学习不同厂家的模型API调用方式,就能简单地通过几行代码去使用它们。init_chat_model是便捷的模型初始化方式,支持多种模型提供商,它让我们能够快速切换不同的模型,根据任务需求选择最合适的模型。

应用层:消息处理、模板使用与工具扩展

在应用层,我们需要掌握如何与模型进行交互,以及如何扩展Agent的能力。对此,我们学习了Message对象的应用、Template的使用、Tools的创建与绑定,以及Tool Calling的完整实现。

Message是标准化信息传递的方式,是与LLM进行交互的基础。Message根据role的不同,可以分为SystemMessage(系统提示)、HumanMessage(用户输入)、AIMessage(AI回复)、ToolMessage(工具调用结果)等类型。在实际应用中,我们需要根据不同的场景选择合适的Message类型,构建完整的对话上下文。

Prompt Template让Prompt的生成更加灵活、便捷,我们可以通过模板来预设Prompt的关键要素,然后在运行时填入具体的数据。这样,我们就能动态地调整Prompt内容,让同一个Graph适应不同的任务场景。

Tools是扩展Agent能力的关键。在LangChain中,创建一个工具的最简单方法就是使用@tool装饰器,将Python函数转换为工具。在定义函数时,必须要写明类型提示,这定义了工具的输入模式,让LLM知道如何调用工具。我们还需要使用文档字符串对工具的用途、参数的含义进行清晰、简明的描述,以帮助LLM理解工具用途和使用场景。

通过bind_tools,我们可以将工具绑定给LLM,让LLM知道有哪些工具可用。ToolNode则能够自动执行工具调用,处理工具执行结果,简化工具调用的实现。这样,LLM就能够根据任务需要,灵活地连接并使用外部系统的功能,从而极大地拓展了大语言模型的能力边界。

高级层:动态配置与灵活切换

在高级层,我们我们学习了Runtime Configuration(运行时配置)机制,包括如何通过ContextSchema定义运行时配置结构,以及如何实现动态模型切换和动态Prompt配置,实现了让同一个Graph能够适应不同的场景的功能。

Runtime Configuration允许我]]\们在调用Graph时(而不是在定义Graph时)传入配置参数,让同一个Graph能够根据不同的配置表现出不同的行为。我们通过ContextSchema定义运行时配置的结构,然后就可以动态切换模型(根据任务类型选择不同模型,如Claude用于复杂推理,GPT用于代码生成),或者动态指定System Prompt(根据场景调整Prompt,让同一个Graph适应不同任务)。

这样,我们就可以在不修改Graph定义的情况下,灵活地控制Graph的运行方式,让同一个Graph能够适应多种不同的使用场景。

二、这些知识用来做什么?——Agent的四大要素与ReAct框架

通过前面的梳理,我们已经从横向(三大功能维度)和纵向(三个学习层次)两个角度,对我们截至目前学习的所有知识要点进行了梳理。但是,仅仅了解这些知识点本身还不够。我们学习LangGraph的最终目的,是要构建能够实际工作的Agent。那么,这些知识点是用来做什么的?它们是如何共同协作,来实现一个完整的Agent系统的?

为了回答这个问题,我们需要理解Agent的构成要素,以及这些要素是如何组织和协作的。

AI Agent的四大要素

根据Lilian Weng在其博文"LLM Powered Autonomous Agents"中提出的Agent架构,一个完整的AI Agent需要包含四大要素:规划、记忆、工具和执行。

相信大家已经很熟悉下面这张图了:

规划能力体现在Agent能够进行子目标分解、思维链推理和自我反思。Agent需要能够分析问题,制定解决方案,规划行动步骤。这是Agent的"大脑",负责思考和决策。

记忆机制包括短期记忆(通过上下文学习实现)和长期记忆(通过外部向量存储实现)。Agent需要能够记住之前的对话内容、行动结果,以及从历史经验中学习。这是Agent的"记忆库",保存了Agent的"经验"。

工具是扩展Agent能力的各种外部功能,让Agent能够执行实际的操作,比如搜索信息、调用API、操作数据库等。这是Agent的"手脚",让Agent能够与外部世界交互。

执行则是基于规划和记忆来执行具体的行动。Agent需要能够将规划好的步骤转化为实际行动,调用工具,更新状态。这是Agent的"执行器",负责把想法变成现实。

这四大要素缺一不可。没有规划,Agent就无法思考;没有记忆,Agent就无法学习;没有工具,Agent就无法行动;没有执行,Agent就无法实现目标。

但是,如何将这四大要素有机地整合在一起,形成一个能够实际工作的Agent系统呢?这时我们需要引入ReAct框架。

ReAct框架:实现Agent的一种方式

ReAct框架由Shunyu Yao等人在ICLR 2023的论文《ReAct: Synergizing Reasoning and Acting in Language Models》中提出,这个框架能将前述Agent四大要素进行有机整合。ReAct框架的核心在于将推理和行动紧密结合起来,形成一个思考(Thought) → 行动(Action) → 观察(Observation)的循环过程。

思考阶段,LLM会分析当前情况,思考需要做什么,决定是否需要调用工具。这个阶段就像是人类在解决问题前的"思考"过程,需要分析问题、规划方案。这个阶段主要体现Agent的规划能力。

行动阶段,Agent会基于思考的结果,执行具体的操作,比如调用工具、更新状态等。这是对思考结果的"实施",把想法变成实际行动。这个阶段主要体现Agent的工具调用和执行能力。

观察阶段,Agent会观察行动的结果,收集反馈,评估行动是否达到了预期目标。这个阶段就像是人类在执行行动后"看看效果如何"。观察的结果会被保存下来,成为Agent的记忆,用于下一轮思考。

这个循环会不断重复,直到LLM认为已经收集到足够的信息,可以给出最终答案为止。整个过程就像是一个不断试错、不断改进的过程。

我们可以用下面的表格来展示ReAct框架的三个阶段与Agent四大要素的对应关系:

ReAct框架的价值在于,它提供了一种清晰、可操作的方式来整合Agent的四大要素,让Agent能够真正地"思考-行动-观察-再思考",形成一个完整的智能循环。而我们学习LangGraph的目的,就是要通过编程的方式来实现ReAct框架,从而获得一个能够通过自主实施前述循环以完成任务的AI Agent。

三、LangGraph知识在ReAct框架中的作用

了解了Agent的四要素及ReAct框架的基本概念后,我们自然要问:我们学习的这些LangGraph知识点,是如何实现ReAct框架的?它们各自在ReAct框架的三个阶段中扮演什么角色?

通过ReAct框架的"思考→行动→观察"循环,我们可以更深入地理解每个知识点在Agent构建中的实际作用,明白它们是如何配合完成Agent的核心功能的。下面,让我们带入ReAct框架的视野,来看看这三大类知识在ReAct框架的三个阶段中是如何发挥作用的。

为了更好地理解这种映射关系,我制作了下面的表格:

3.1 思考(Thought)阶段:推理与规划

在ReAct框架中,思考阶段的目标是让LLM能够分析用户输入,思考需要做什么,决定是否需要调用工具,规划下一步行动。LangGraph实现“思考”阶段效果的主要方式如下:

首先,Graph配置维度的知识提供了思考的核心能力。我们通过init_chat_model初始化Chat Model,让LLM获得推理能力,这是Agent"思考"的核心引擎。我们通过Message中的SystemMessage或Runtime Configuration设置System Prompt,指导LLM的推理方向,告诉LLM应该扮演什么角色、遵循什么规则,从而让LLM知道如何分析问题。我们通过bind_tools将工具绑定给LLM,让LLM知道有哪些工具可用,这是LLM进行规划的基础信息——只有知道有哪些工具,LLM才能规划如何使用它们。

其次,State管理维度的知识为思考提供了必要的上下文支持。我们在State Schema中定义messages字段,用于保存对话历史。当LLM进行推理时,我们通过Reducer(add_messages)确保历史对话信息正确累积到State中,避免历史信息丢失。这样,LLM在分析当前用户输入时,能够从State中读取完整的对话历史,理解当前对话的背景和上下文。没有State承载的这些上下文,LLM就没有了进行推理的"输入材料",也就无法进行有效的推理和规划。

3.2 行动(Action)阶段:执行与实施

在ReAct框架中,行动阶段的目标是将LLM的推理结果转化为实际行动,执行具体的操作(工具调用、状态更新等)。LangGraph实现“行动”阶段效果的主要方式如下:

首先,Workflow控制维度的知识提供了执行的核心机制。我们编写Node函数,接收State作为输入,处理业务逻辑,然后返回State的更新,这样就能将LLM的规划转化为具体的业务操作。我们使用Conditional Edge,通过routing_function判断LLM的推理结果(如是否有tool_calls),然后通过path_map决定下一步的执行流程,这样就能根据LLM的规划结果执行相应的行动路径。我们使用Command,在Node函数中同时返回State更新和下一步节点,让决策和执行一体化,在一个节点内就能完成状态更新和流程控制。我们使用Send,在路由函数中返回Send对象列表,动态创建多条边,实现批量工具调用的并行处理,提高执行效率。我们使用Subgraph,将工具调用循环封装成独立的子图模块,让主流程更清晰,职责分离。

其次,Graph配置维度的知识提供了工具执行的具体实现。我们通过bind_tools将工具绑定给LLM后,LLM在思考阶段会生成tool_calls。在行动阶段,我们使用ToolNode自动执行这些工具调用,处理工具执行结果,简化工具调用的实现。这样,LLM规划好的工具调用就能被自动执行。

最后,State管理维度的知识确保执行结果被正确保存。我们通过Reducer函数(如add_messagesoperator.add等),将Node函数返回的新值合并到State中,确保状态更新的正确性。这样,执行的结果就能被正确记录到State中,为后续的观察阶段提供数据基础。

3.3 观察(Observation)阶段:结果记录与反馈

在ReAct框架中,观察阶段的目标是记录行动的结果,并将结果反馈给LLM,用于下一轮思考。LangGraph实现“观察”阶段效果的主要方式如下:

首先,State管理维度的知识提供了观察结果记录的核心机制。我们在State Schema中定义相应的字段(如messages字段),当Node函数执行完业务逻辑后,返回包含行动结果的更新。我们通过Reducer机制(如add_messages),将行动结果正确累积到State中,确保信息不会丢失或错误覆盖。例如,工具执行的结果通过ToolMessage返回,我们使用add_messagesReducer将其添加到State的messages字段中,这样工具结果就被正确记录了。我们还可以使用Checkpoints机制,在每个super-step执行后自动保存State快照,记录State的变化历史,实现"观察历史",这样我们就能追踪Agent的整个执行过程,支持调试和回溯。

其次,Graph配置维度的知识提供了反馈机制的具体实现。工具执行后,我们通过ToolMessage将工具结果返回,这个ToolMessage会被添加到State的messages中。当下一轮LLM调用时,LLM可以从State中读取完整的messages历史(包括之前的对话和工具结果),这些信息成为下一轮"思考"的输入。这样,观察的结果就被反馈给了LLM,形成了ReAct循环的关键连接。

五、结语

结合ReAct框架的视角,我们从三个维度重新梳理了LangGraph的知识体系:

  • 横向维度:State管理、Workflow控制、Graph配置三大功能维度
  • 纵向维度:基础层、应用层、高级层三个学习层次
  • 框架映射:三大维度在ReAct的思考、行动、观察三个阶段中各有侧重,相互配合

理解这个知识体系,有助于我们在构建Agent时更有章法,也让我们明白每个知识点在Agent工作流程中的实际作用。希望这篇总结能帮助大家更好地掌握LangGraph,也期待与大家一起继续探索Agent开发的更多可能性~

AI时代,未来的就业机会在哪里?

答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

掌握大模型技能,就是把握高薪未来。

那么,普通人如何抓住大模型风口?

AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。

因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!

由于篇幅有限,有需要的小伙伴可以扫码获取!

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

4. 大模型项目实战

学以致用,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

5. 大模型行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

为什么大家都在学AI大模型?

随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。

同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

这些资料有用吗?

这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


大模型全套学习资料已整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询