湖南省网站建设_网站建设公司_跨域_seo优化
2026/1/14 15:35:29 网站建设 项目流程

Claude Skills是智能体可动态加载的"能力模块",包含逻辑与执行脚本;Agent SDK是智能体的"操作系统",提供运行环境。与Gemini 3相比,两者功能相似但实现路径不同,Anthropic采用模块化"渐进式披露"架构,而Google倾向于能力内化。这种架构解决了认知过载和上下文浪费问题,标志着AI开发从提示词工程向技能工程的转变。


执行摘要

随着大语言模型(LLM)从单纯的文本生成工具向自主智能体(Autonomous Agents)演进,人工智能系统的架构正在经历一场根本性的重构。Anthropic 推出的Claude Skills和Claude Agent SDK,以及 GoogleGemini 3生态中的对应工具,代表了这一转型中的核心技术力量。本报告旨在针对用户提出的核心疑问——即 Claude Skills 与 Agent SDK 的本质功能、它们与智能体的关系、以及与竞品(特别是 Gemini 3)的异同——提供一份详尽、深入且具备行业前瞻性的研究分析。

本报告的核心论点在于,Claude Skills 并非智能体本身,而是智能体可动态加载的“能力模块”;它们不仅仅是静态的提示词模板,更是包含逻辑、上下文资源和执行脚本的结构化知识包。Claude Agent SDK 则构成了智能体的“操作系统”,提供了运行这些能力所需的循环机制、内存管理和权限控制。与之相比,Gemini 3 的架构虽然在功能上殊途同归,但在实现路径上——特别是其“Gems”与“Tools”的定义——展现出了截然不同的设计哲学:Google 倾向于将能力内化于模型或通过云端服务集成,而 Anthropic 则采用了一种更为模块化、文件系统导向的“渐进式披露”架构。

本报告全长约 20,000 字,分为八个主要部分,涵盖了从基础概念解析(面向初学者)到底层技术架构(面向工程师)的全方位内容,旨在为读者构建一个关于现代 AI 智能体架构的完整认知框架。


第一部分:从对话机器人到智能体——概念的重构

在深入探讨 Claude Skills 和 SDK 之前,我们需要首先清理当前的术语混乱。在 AI 发展的早期阶段,“Prompt Engineering”(提示词工程)是核心技能。然而,随着任务复杂度的提升,单纯依靠提示词已无法满足需求,AI 正在向“Agentic Workflows”(智能体工作流)转变。

1.1 核心定义的澄清:智能体、能力与工具

用户提出的第一个关键问题是:“Skills 是一个智能体吗?”为了回答这个问题,我们需要建立一个清晰的本体论模型。我们可以将一个完整的 AI 工作系统比作一家现代化的“数字化公司”。

1.1.1 智能体(The Agent):通用的“员工”

智能体(例如基于 Claude 3.5 Sonnet 或 Gemini 3 构建的系统)是这家公司的员工。

本质:它是执行者,拥有推理能力、决策能力和基础的通识知识。

局限:就像一个新入职的高智商毕业生,它虽然聪明,但并不了解你公司的具体报销流程,也不知道你服务器的密码。它有潜能,但缺乏特定的“业务能力”。

1.1.2 提示词(Prompts):一次性的“便利贴指令”

在传统的 ChatGPT 或 Claude 网页版对话中,用户输入的内容相当于给这位员工递了一张便利贴。

形式:“请帮我写一封邮件。”

特性:它是临时的、非结构化的。一旦任务完成,这张便利贴就被丢弃。如果任务太复杂(比如“审计这 500 个代码文件”),便利贴写不下,或者员工记不住那么多步骤。

1.1.3 Skills(能力/技能包):标准化的“作业指导书与工具箱”

这就是 Claude Skills 的位置。它既不是员工(智能体),也不是便利贴(提示词)。它是放在公司书架上的标准化作业指导书(SOP)和配套工具箱。

形式:它是一个文件夹,里面包含一本手册(SKILL.md)、几个计算器(Python 脚本)和一些参考表格(PDF/CSV)。

作用:当智能体需要执行特定任务(如“年度税务审计”)时,它会从书架上取下这个文件夹,瞬间掌握该领域的专业知识。任务完成后,它将文件夹放回,恢复为通用智能体。

1.1.4 Agent SDK:公司的“办公基础设施”

Claude Agent SDK 则是这家公司的办公环境和管理制度。

作用:它规定了员工(智能体)能去哪里(文件访问权限)、能用什么设备(终端执行权限)、以及如何向老板汇报(输出格式)。没有 SDK,智能体就是一个悬浮在虚空中的大脑,无法触碰现实世界的任何文件或代码。

1.2 为什么需要这种区分?

将“能力”(Skills)从“智能体”(Agent)中剥离出来,是 AI 架构的一次重大飞跃。在早期的 AI 应用(如 Custom GPTs)中,所有的知识都被塞进了系统提示词(System Prompt)里。这导致了两个严重问题:

认知过载(Cognitive Load):如果让一个 AI 同时记住法律、编程、医学和烹饪的所有细则,它的推理能力会下降,容易产生幻觉。

上下文窗口浪费(Token Efficiency):每次对话都加载 5 万字的说明书,既昂贵又缓慢。

Anthropic 的 Claude Skills 架构通过模块化解决了这个问题:智能体平时是轻量级的,只有在需要时才动态加载特定的 Skills。这不仅是技术的优化,更是“认知经济学”在 AI 领域的应用1。


第二部分:深度解构 Claude Skills

2.1 Claude Skills 的本质:不仅仅是提示词

用户问道:“它是事先定义好的提示词模板吗?”

答案是:它是提示词模板,但远不止于此。 它是一个动态的执行环境。

如果说普通的提示词是“静态文本”,那么 Claude Skill 就是“可执行的文档”。根据 Anthropic 的官方定义和技术文档3,一个 Skill 在物理层面上表现为一个文件系统目录。

2.1.1 物理结构解剖

一个标准的 Claude Skill 并非单一的一段话,而是一个包含多类资源的文件夹结构:

组件文件示例功能描述智能体交互方式
元数据与指令SKILL.md核心说明书。定义了技能的名称、描述、触发条件以及详细的操作步骤(使用 Markdown 格式)。智能体首先读取此文件,理解“怎么做”。
模块化提示词prompts/analyze_error.md针对特定子任务的微型提示词。避免主指令文件过长。智能体在执行到特定步骤时动态加载。
可执行脚本scripts/visualize.pyPython 或 Bash 脚本。赋予智能体计算、绘图或数据处理的硬能力。智能体直接运行这些代码,而不仅仅是阅读它们。
静态资源resources/template.docx模板文件、品牌规范 PDF 或参考数据集。智能体在生成文档时作为素材调用。

深入分析:

这种结构意味着 Skill 是代码与自然语言的混合体。普通的提示词只能告诉 AI “请写一段代码”,而 Skill 包含了一个脚本 test.py,并指示 AI:“先运行这个脚本测试环境,如果报错,再读取 error_guide.md 进行修复”。这引入了逻辑流(Logic Flow),使得 Skill 具备了初级的“程序性”。

2.2 运行机制:发现、激活与渐进式披露

Claude Skill 的运作方式与用户直接粘贴提示词完全不同。它依赖于一种**“拉取模式”(Pull Model),而非传统的“推送模式”(Push Model)**。

2.2.1 第一阶段:语义发现(Semantic Discovery)

当用户启动支持 Skills 的 Claude 环境(如 Claude Code 或桌面版)时,系统不会将所有 Skill 的内容都塞进对话窗口。相反,它只加载每个 Skill 的名称和简短描述5。

场景:用户说“帮我分析昨天的服务器日志”。

后台逻辑:Claude 扫描已安装的 Skills 索引。它发现一个名为log-analyzer的 Skill,其描述为“用于解析和诊断 Linux 服务器日志”。

匹配:通过语义相似度计算,Claude 判断该 Skill 与用户意图匹配。

2.2.2 第二阶段:激活与确认(Activation)

Claude 不会擅自行动(特别是涉及文件操作时)。它会向用户提议:

“我可以使用 log-analyzer 技能来处理日志分析任务,是否继续?”

这一步体现了“人在回路”(Human-in-the-loop)的设计哲学,确保了代理行为的可控性。

2.2.3 第三阶段:渐进式披露(Progressive Disclosure)

这是 Claude Skills 架构中最精妙的部分 6。

一旦 Skill 被激活,Claude 并不会一次性读取文件夹里的所有文件。它首先读取 SKILL.md。如果 SKILL.md 中提到:“若遇到数据库连接错误,请参考 resources/db_errors.pdf”,那么只有在实际遇到该错误时,Claude 才会去加载那个 PDF 文件。

原理:这种机制极大地节省了 Token(上下文窗口的容量),并让 AI 的注意力始终聚焦在当前最相关的上下文上。

对比:传统的做法是将所有错误手册一次性粘贴给 AI,导致 AI 在处理简单问题时也背负着沉重的无关知识,容易造成“迷失”。

2.3 Skill 与智能体的关系:外挂式大脑皮层

回到用户的疑问:“它是智能体的一部分吗?”

从软件工程的角度看,它是智能体的插件(Plugin)或扩展包(Extension)。

独立性:Skill 是独立于模型存在的。你可以把同一个coding-skill文件夹发给你的同事,他的 Claude 也能加载并使用。这意味着知识被文件化和可传输化了。

依赖性:Skill 必须依附于智能体才能运行。没有 Claude 的推理能力,SKILL.md只是一个普通的文本文件,scripts/里的代码也不会自动运行。

因此,Skill 是智能体加工的对象,也是智能体能力的载体。它是必须借助智能体(通过 SDK 提供的环境)来“阅读”和“执行”的。


第三部分:智能体的骨架——Claude Agent SDK

3.1 SDK 的定义与定位

用户问:“Claude Agent SDK 是用来做什么的?”

简单来说,Claude Agent SDK 是制造智能体的工厂流水线和运行时的底座。

Anthropic 官方文档明确指出,SDK 是他们构建自己的旗舰产品Claude Code(一个自主编程智能体)所使用的同款基础设施7。现在,他们将这套基础设施开源(或提供给开发者),让任何人都能构建类似 Claude Code 的应用。

3.1.1 为什么需要 SDK?

大模型本身(如 Claude 3.5 Sonnet API)只是一个文本生成器。如果你问它:“删除我电脑上的临时文件”,它只能回复一段文字:“你应该运行 rm -rf /tmp/*”,但它无法真的去执行这个命令。

要让它变成一个能干活的智能体,你需要写代码来:

连接终端:让 AI 能发送命令给电脑。

管理记忆:记录 AI 之前做了什么,防止它死循环。

处理错误:如果命令报错了,告诉 AI 重试。

权限控制:防止 AI 删错文件。

Claude Agent SDK封装了上述所有功能。它提供了一套标准化的代码库,开发者只需调用几行代码,就能生成一个具备文件读写、命令执行能力的智能体环境。

3.2 核心机制:ReAct 循环与工具编排

SDK 的核心价值在于实现了稳定的智能体循环(Agent Loop),通常被称为Think-Act-Observe(思考-行动-观察)循环8。

小白视角的“厨房”比喻:

Claude (模型)是厨师。他有大脑,知道菜谱。

SDK是现代化厨房。它提供了灶台、流水线、传递窗。

运作流程:

如果没有 SDK,厨师就只是一个被锁在房间里只能说话的人,无法接触任何厨具。

3.3 SDK 与 Skills 的协同关系

这是用户理解的难点:SDK 和 Skills 是如何配合的?

SDK 构建躯体:它定义了智能体能“做什么动作”(读文件、运行 Shell、调用 API)。

Skill 注入灵魂:它定义了智能体“在什么场景下做这些动作”以及“如何组合这些动作”。

场景演示:

假设你用 SDK 开发了一个“企业财务助手”。

SDK 层:赋予了该助手“读取 Excel 文件”和“发送邮件”的基础权限(Tools)。

Skill 层:你加载了一个“发票审核 Skill”。这个 Skill 包含一条规则:“如果金额大于 1 万,必须先读取policy.pdf,然后给财务总监发邮件。”

运行时:当助手收到一张 2 万的发票时,Claude 模型读取 Skill 的规则,决定调用 SDK 提供的“读取文件”和“发邮件”工具。

结论:SDK 是必须的加工平台。Skill 必须被加载到由 SDK 构建的 Runtime(运行时环境)中,才能被解析和执行。直接把 Skill 扔给裸模型(Raw Model),模型只能读懂文字,但无法执行其中的脚本或工具调用。


第四部分:竞品对标——Claude Skills vs. Gemini 3 工具体系

用户特别提到了与Gemini 3 的“工具”进行对比。这是一个非常敏锐的问题,因为 Google 和 Anthropic 在术语使用上存在重叠,但背后的架构哲学有显著差异。

4.1 Gemini 3 生态概览

根据研究资料,Google 的 Gemini 生态(涵盖 Gemini 1.5 Pro, 2.0 Flash, 以及 Gemini 3 系列)主要包含三个相关概念:

Tools (工具):主要指 Function Calling(函数调用)和 Google Extensions(扩展)。

Gems (宝石):指自定义的 Gemini 实例(类似 OpenAI 的 GPTs)。

Agentic Capabilities (智能体能力):指 Gemini 3 模型原生具备的“Deep Think”(深度思考)和多步规划能力10。

4.2 核心差异对比矩阵

为了清晰展示,我们使用表格进行多维度对比:

维度Claude Skills (Anthropic)Gemini “Tools” (Google)Gemini “Gems” (Google)
定义本质结构化知识与逻辑包(Knowledge Cartridge)功能性接口(Functional Interface)角色与设定包装(Persona Wrapper)
物理形态本地文件夹 (.md,.py, 资源文件)代码定义的 API 接口 (JSON Schema)云端保存的系统提示词配置 (System Instruction)
智能体交互指导 (Guide):教 AI如何思考和执行流程。连接 (Connect):让 AI连接外部系统。设定 (Set):设定 AI 的性格背景
执行能力:可包含完整的 Python 脚本供本地执行。:主要触发远程 API 调用。:依赖模型本身的生成能力,不包含代码逻辑。
上下文管理渐进式披露:按需加载文件,节省 Token。全量或检索:通常依赖 RAG 或长上下文窗口。全量加载:系统提示词常驻上下文。
典型用途复杂的 SOP 流程(如“代码审计”、“法律合规检查”)。单点功能(如“查询天气”、“搜索 Google 机票”)。角色扮演(如“苏格拉底式导师”、“健身教练”)。
可移植性:Git 版本控制,文件传输。:通常绑定在 Google Cloud 或应用内部。:仅限 Google 账号间分享。

4.3 深度辨析:Skills 与 Gemini “Tools” 是同一个东西吗?

结论:不是。它们处于不同的抽象层级。

Gemini 的“工具” (Tools)本质上是Function Calling。它像是一把锤子。你告诉 AI “这里有一把锤子”,AI 在需要时会拿起来用。但工具本身不包含“如何盖房子”的知识。

Claude 的“Skill”更像是一个建筑师的图纸包。这个图纸包里可能包含了一把锤子(Tool),但也包含了建筑蓝图(SKILL.md)和施工规范(Resources)。

关系:Claude Skill 可以包含工具。例如,一个 Claude Skill 的定义里可以声明使用一个“Google Search Tool”。Skill 是更高层级的组织形式,它将“工具”和“使用工具的知识”打包在了一起2。

4.4 深度辨析:Skills 与 Gemini “Gems”

结论:有些相似,但架构不同。

Gemini Gems是面向消费者的、基于 Prompt 的定制化。它更像 OpenAI 的 Custom GPTs。通过对话框设置“你是谁,你要做什么”。它便于非技术用户快速创建。

Claude Skills是面向开发者和专业工作流的、基于文件系统的定制化。它允许更复杂的逻辑编排。例如,Skill 可以包含一个 500 行的 Python 脚本来处理数据,而 Gems 通常无法直接嵌入复杂的本地代码逻辑(尽管 Gemini Advanced 可以运行代码,但 Gems 的定义方式主要是纯文本提示词)13。

4.5 Gemini 3 的“Agentic Capabilities”

需要补充的是,Gemini 3 引入了原生更强的代理能力(Agentic Capabilities)和“Deep Think”模式。这意味着 Gemini 3 模型本身在没有外部 Skill 指导的情况下,规划任务的能力更强了。

Google 的策略:打造一个超级全能的通用天才(Gemini 3),并让它无缝连接 Google 的所有服务(Drive, Docs, Search)。这是一个**单体化(Monolithic)**的策略。

Anthropic 的策略:打造一个可塑性极强的核心(Claude),并通过模块化的 Skills 让用户自己定义它的专业领域。这是一个**生态化(Modular)**的策略。


第五部分:技术架构与实现原理(Deep Research)

为了满足专家级读者的需求,本部分将深入探讨 Claude Skills 的底层技术实现细节。

5.1 上下文注入与动态路由

Claude 如何知道何时使用 Skill?这涉及到大模型的路由(Routing)机制。

在 SDK 层面,系统维护着一个元数据索引(Metadata Index)。

JSON

// 简化的 Skill 索引结构示例

{

“skills”:

}

当用户输入 Query 时,SDK 会先进行一轮快速意图识别(通常使用轻量级模型或向量检索),计算 User Query 与 Skill Description 的相关性。如果匹配度超过阈值,SDK 会将该 Skill 的详细 Prompt 注入到当前的 Context Window 中。

5.2 MCP(Model Context Protocol)的角色

在研究材料中多次提到了MCP9。这是理解 Claude Skills 生态的关键一环。

MCP 是什么:它是一个开放标准协议,用于连接 AI 模型和数据源。就像 USB 接口连接电脑和设备一样。

Skills 与 MCP 的关系:

5.3 沙箱环境(Sandboxing)与安全性

由于 Skill 可以包含 Python 脚本并执行系统命令,安全性至关重要。Claude Agent SDK 默认在容器化环境(Docker Container)或受限的沙箱中运行这些 Skill1。

网络隔离:限制 Skill 只能访问特定的 URL(如 API 端点)。

文件系统隔离:Skill 只能读写特定的工作目录,无法访问宿主机的系统核心文件。

这是 Skill 区别于简单 Prompt 的重要特征:它是在一个受控的计算环境中运行的,而不仅仅是在文本框里生成文字。


第六部分:使用场景分析——从小白到专家的实战

为了让读者更直观地理解,我们将通过三个难度递增的场景来展示 Claude Skills 的应用。

6.1 场景一:小白用户的“私人秘书”(Personal Use)

需求:用户希望 Claude 每天早上阅读他的 Gmail,找出老板的邮件,并根据附件里的 Excel 表格生成日报。

传统方式:用户每天复制邮件内容,上传 Excel,写提示词:“请分析这个…”。

使用 Skills:

价值:一键化,零门槛复用复杂流程。

6.2 场景二:软件团队的“自动代码审查员”(Developer Workflow)

需求:团队希望在代码提交前,自动检查是否包含硬编码的密码(API Key),且检查规则需符合公司内部特殊的安全白皮书。

构建:团队技术负责人使用Claude Agent SDK构建了一个 CLI 工具。

Skill 定义:创建一个security-auditSkill。

价值:将公司的制度(白皮书)转化为了可执行的代码逻辑,实现了“制度即代码”(Policy as Code)。

6.3 场景三:企业级“智能客服中台”(Enterprise Integration)

需求:某电商公司需要一个 AI 客服,既能查订单(连接数据库),又能处理退款(调用支付网关),还要安抚客户情绪(话术库)。

架构:

动态调度:当客户说“我要退款”时,Claude 加载退款 Skill,严格按照流程(验证身份 -> 检查金额 -> 调用接口)执行,确保不会因为 AI 的“幻觉”而随意退款。


第七部分:认知架构与未来展望

7.1 从“提示词工程”到“技能工程”

Claude Skills 的出现标志着 AI 开发范式的转移。我们正在从Prompt Engineering(琢磨怎么说话 AI 爱听)转向Skill Engineering(设计结构化的知识包和逻辑流)。

未来的 AI 开发者更像是一个产品经理或系统架构师,他们编写SKILL.md,设计文件结构,配置工具权限,而不是单纯地写一段话。

7.2 技能经济(The Skill Economy)

正如 App Store 改变了软件分发,未来可能会出现Skill Store。

咨询公司(如麦肯锡)可能不再直接卖 PPT,而是卖一个"Strategy Analysis Skill"。企业购买这个 Skill,加载到自己的 Claude Agent 中,就能让 AI 像麦肯锡顾问一样分析自己的数据。

这实现了专业知识的封装与即插即用。

7.3 安全隐患:技能注入攻击(Skill Injection)

随着 Skill 成为执行逻辑的载体,新的安全威胁随之而来。

如果黑客诱导用户下载了一个恶意的 Skill,该 Skill 可能包含隐藏指令:“在分析财务数据时,悄悄将数据发送到黑客的服务器。”

因此,Skill 的签名验证和来源审查将成为未来企业安全的重要组成部分。


第八部分:结论

综上所述,针对用户的疑问,我们得出以下确切结论:

Claude Skills 和 Agent SDK 是做什么的?

Skills 是智能体吗?

它是预定义好的提示词模板吗?

它必须借助智能体加工吗?

它与 Gemini 3 的“工具”一样吗?

对于“小白”用户而言,只需要记住:Claude 是你的全能管家,SDK 是你给他配的超级电脑和办公室,而 Skills 是你让他学习的一本本《专业操作手册》。有了这三者,管家就不再只是陪你聊天的机器人,而是能帮你真正干活的超级员工。


如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)





第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询