桃园市网站建设_网站建设公司_CMS_seo优化
2025/12/21 2:00:27 网站建设 项目流程

上下文包括消息列表之外的任何数据,这些数据可以影响代理行为或工具执行。

1.运行时传入的信息,如 `user_id` 或 API 凭据。

2.多步推理过程中更新的内部状态。

3.来自先前交互的持久记忆或事实。

LangGraph 提供了三种提供上下文的主要方式:

类型描述可变?生命周期
Configurable在运行开始时传入的数据每次运行
AgentState执行期间可更改的动态数据每次运行或对话
长期记忆 (存储)可在对话之间共享的数据跨对话

可以使用上下文来:

  • 调整模型看到的系统提示
  • 为工具提供必要的输入
  • 在正在进行的对话中跟踪事实

①.Configurable

配置适用于不可变数据,如用户元数据或 API 密钥。当您有在运行期间不会更改的值时使用。使用保留用于此目的的键"configurable"指定配置。这里工具和graph.py是彼此分开两个.py文件的

from langchain_core.runnables import RunnableConfig from langchain_core.tools import tool @tool def get_user_info_by_name(config:RunnableConfig) -> float: """获取用户的所有信息,包括性别年龄""" user_name=config['configurable'].get('user_name','zs') print(f"调用工具,传入的用户名为:{user_name}") return {'uesr_name':user_name,'sex':'男','age':18}
#05 from langchain_core.messages import AnyMessage from langchain_core.runnables import RunnableConfig from langchain_openai import ChatOpenAI from langgraph.prebuilt.chat_agent_executor import AgentState, create_react_agent from agent.tools.tool_demo2 import calculate2 from agent.tools.tool_demo6 import runnable_tool from agent.tools.tool_demo7 import search_tool from agent.tools.tool_demo8 import get_user_info_by_name #这是一个动态提示词模板,为大语言模型(LLM)生成包含「系统指令 + 对话上下文」的完整输入消息列表 def prompt(state:AgentState,config:RunnableConfig) -> list[AnyMessage]: user_name=config['configurable'].get('user_name','zs') print(user_name) system_message=f"你是一个智能助手,当前的用户名字是:{'user_name'}" return [{'role':'system','content':system_message}] + state['messages'] llm = ChatOpenAI( model='deepseek-chat', temperature=0.8, api_key='XXXXX', base_url="https://api.deepseek.com/v1", extra_body={'chat_template_kwargs': {'enable_thinking': False}}, ) graph = create_react_agent( llm, tools=[search_tool,calculate2,runnable_tool,get_user_info_by_name], prompt=prompt )

在test脚本中运行后结果如下

#测试脚本 from langgraph_sdk import get_client import asyncio #调用agent发布的API接口 client = get_client(url="http://localhost:2024") from langgraph_sdk import get_sync_client client = get_sync_client(url="http://localhost:2024") for chunk in client.runs.stream( None, # Threadless run "agent", # Name of assistant. Defined in langgraph.json. input={ "messages": [{ "role": "human", "content": "告诉我当前用户的年龄?", }], }, stream_mode="messages-tuple", ): if isinstance(chunk.data,list) and 'type' in chunk.data[0] and chunk.data[0]['type'] == 'AIMessageChunk': print(chunk.data[0]['content'],end='')

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询