文章探讨了大型语言模型从静态知识库向动态智能体的范式转变,剖析了智能体的模块化架构(画像、记忆、规划、行动)及实现技术。比较了单与多智能体系统,讨论了智能体评估、通用AI发展路径,以及LLM在数字世界中的操作系统潜力。LLM智能体代表自动化从流程向认知的跃迁,将重塑知识工作形态,带来生产力革命,企业和个人需主动拥抱以保持竞争力。
为什么很多企业摸索了一年大模型应用,真正切入实际业务的寥寥呢?
为什么大多数都成了面向用户的聊天知识服务呢?(还不能是严格意义上的知识服务)
今日读罢萨迪亚、里尔萨德等专家的著述《大模型在智能体与工具调用领域的应用:从语言到行动》,有所共鸣,遂笔记之,审问之。
一、从静态知识库到动态行动者
人工智能领域正在发生范式转变:大型语言模型从一个被动的、基于庞大训练数据生成文本的静态知识库,向能感知环境、规划决策、执行动作并从中学习的动态行动者演进。这是对智能体的重新定义,其核心是赋予机器在开放、动态的真实世界中实现目标的自主行为能力。
传统智能体通常依赖于精心预设的规则、符号逻辑或在受限环境中通过强化学习训练出的策略,其能力范围严格受限于设计者的先验知识或模拟环境的复杂性。
而LLM(大模型)的出现,以其对自然语言的深刻理解和生成能力、海量的世界知识以及强大的上下文学习能力,提供了一个通用任务理解与推理基座。当我们将LLM置于智能体架构的大脑位置时,它展现出了解决复杂、长序列、甚至隐含模糊指令任务的潜力,使其能够处理那些无法被穷举规则覆盖的、充满不确定性的真实世界问题。
这篇著述的价值在于,它梳理了将LLM转化为有效智能体所必需的架构元素、使能技术和评估体系。
它明确指出,一个强大的LLM智能体绝非仅仅是一个更大的语言模型,而是一个由记忆(Memory)、规划(Planning)、行动(Action)、反思(Reflection)等核心模块构成的复杂系统,并通过工具集成(Tool Use)扩展了其行为边界。
二、 模块化设计与认知功能解耦
著述中描绘的LLM智能体基本架构(Profile, Memory, Planning, Action)是一种模块化的设计哲学,解耦使得每个模块可以独立优化和演进。
- 画像(Profile)
这是智能体的元认知层,决定了其行为的基本范式。无论是通过静态预设还是动态生成,一个清晰的Profile为智能体注入角色感。例如,一个被设定为资深软件工程师的智能体和一个被设定为初级产品经理的智能体,在面对同一个需求文档时,其思考侧重点、提出的问题和最终输出的方案会截然不同。这种角色化能力,使得LLM智能体能够超越通用问答,在特定领域(如法律、医疗、编程)表现出专业性和可信度。挑战在于如何让Profile更具动态性和适应性,能够根据交互上下文和长期经验进行微调,甚至形成独特的“行事风格”。
- 记忆(Memory)
记忆是智能体实现持续学习和任务连贯性的核心。著述中区分的短期记忆(对话上下文)和长期记忆(外部向量数据库或结构化存储)是当前的主流方案。
短期记忆的瓶颈与演进:受限于LLM的上下文窗口,高效的上下文管理策略(如关键信息摘要、优先级排序)至关重要。近年来出现的超长上下文模型(如GPT-4o、Claude 3.5)部分缓解了此问题,但如何在海量上下文信息中精准检索相关信息,仍是一个关键研究点。
长期记忆的深化:未来的长期记忆不应仅是事实的堆砌,更应包含“经验教训”(如过去某个操作为何失败)、”用户偏好”(如用户倾向于哪种解决方案风格)以及“程序性知识”(如成功完成某项任务的最佳实践流程)。这相当于为智能体构建了一个不断成长的“个人知识库”,是其产生“个性化”行为和实现“持续改进”的基础。记忆的索引、检索、更新和遗忘机制,都需要更精细的设计。
- 规划(Planning)
规划能力是LLM智能体区别于简单任务执行器的关键。著述中提到了CoT、ToT等策略,这些都是将复杂的宏观目标分解为可执行微观步骤的必要手段。
规划的可塑性:一个先进的智能体,其规划不应是线性的。它需要具备重新规划的能力。当环境发生变化或行动受阻时,智能体应能评估当前计划的有效性,并动态调整后续步骤。这需要更深层的因果推理和不确定性量化能力。
多模态规划:当前的规划多基于文本描述。未来的智能体需要处理多模态目标(如“根据这张设计草图和一端语音描述,为我创建一个网站”),这要求规划模块能理解和融合视觉、听觉等多模态信息,并生成涉及多种工具(图形处理、代码生成、部署)的复杂计划。
与社会性规划:在多智能体环境中,规划还需考虑其他智能体的意图和可能的行为,从而进行协作或竞争性规划,这涉及博弈论等更复杂的认知能力。
- 行动(Action)
行动模块是智能体与外部环境交互的手和脚。关键在于将LLM输出的自然语言指令,转化为对工具、API或环境的确切调用。
工具使用的泛化与精确性:智能体需要一个大而全的工具库,并能准确理解每个工具的功能、输入输出格式。工具描述的学习、工具的选择(尤其是在功能重叠时)、工具调用的序列化(同步/异步)以及错误处理,都是行动模块需要解决的复杂问题。工具学习,即让智能体通过文档或少量示例自主学会使用新工具,是一个重要方向。
具身智能:在机器人学等领域,行动意味着物理世界的操作。这将挑战推向了一个新高度,需要处理感知的不确定性、动作执行的延迟和物理约束等。LLM如何为机器人提供高层任务指令,并与低层控制器无缝衔接,是当前的研究热点。
这四个模块并非孤立的,它们通过紧密的闭环反馈形成一个协同系统。行动的结果会更新记忆,记忆的内容会影响下一次规划,而规划的质量直接决定了行动的成效。
三、 激发LLM智能体潜力的三驾马车
著述指出了提示工程、微调与记忆增强是提升智能体性能的关键技术。我们可以将其视为激发LLM智能体潜力的“三驾马车”。
- 提示工程
提示工程是一种低成本、高效率的引导LLM行为的方式。对于智能体而言,提示不仅是问题描述,更是操作说明书和思维框架。
思维过程的外化:如ReAct框架,通过强制LLM在生成回答前,先输出思考和行动,将内部的推理过程外化,这不仅提高了结果的可信度,也为调试和优化提供了窗口。
角色扮演与约束注入:通过在系统提示中明确智能体的角色、目标、约束和可用工具,我们可以为其设定清晰的行为边界。例如,“你是一个谨慎的网络安全分析师,你的任何操作都不能对系统造成损害。”
未来方向:提示工程正从人工精心设计转向自动化提示生成与优化。让智能体自己根据任务和目标来生成或调整提示,即“智能提示”,将是下一个突破点。
- 微调
尽管提示工程强大,但对于特定领域的高性能要求,对基座LLM进行微调仍是不可或缺的手段。这相当于让一个通才进行专业领域的深度学习。
效率与专业性:一个经过大量代码微调的LLM(如CodeLLaMA)在编程任务上通常能超越仅通过提示来编程的通用LLM。同样,在医疗、法律等专业领域,领域知识的微调能显著降低幻觉,提高输出准确性。
挑战:微调的成本高昂,且可能存在灾难性遗忘的风险,即模型在新任务上表现提升,却牺牲了原有的通用能力。参数高效微调(PEFT)技术,如LoRA,能在保持大部分原始参数不变的情况下,通过引入少量适配器参数来实现有效微调,是目前的主流方向。如何平衡通用性和专业性,是微调策略需要持续思考的问题。
- 记忆增强
LLM固有的静态知识库和有限的上下文窗口,是其作为智能体的主要短板。记忆增强技术是弥补这一短板的必由之路。
检索增强生成(RAG):RAG已成为智能体获取外部实时、专有知识的标准配置。通过将外部知识库(如公司文档、最新新闻、专业数据库)向量化,智能体可以在需要时检索相关信息,并将其作为上下文提供给LLM,从而生成更准确、更可靠的回答。这对于需要事实准确性的任务至关重要。
记忆的抽象与泛化:未来的记忆增强不应仅是简单的信息检索。智能体需要能够对过去的经历进行抽象和总结,形成可迁移的“策略”或“模式”。例如,在解决过几个类似的软件Bug后,智能体应能归纳出一套排查此类问题的通用流程,而不仅仅是记住每个Bug的具体解法。这标志着从“记忆”到“经验”的升华。
这三项技术往往需要协同使用。一个复杂的智能体可能通过提示工程来设定基本行为框架,通过微调来获得领域深度,并通过RAG来保证信息的时效性和准确性。
四、 单智能体与多智能体系统
著述清晰地区分了单智能体和多智能体系统,这体现了LLM智能体研究的两个不同维度。
- 单智能体:追求极致的自主性与可靠性
单智能体研究的目标是打造一个高自主性智能体,能够独立完成复杂的端到端任务。其挑战在于如何在一个智能体内集成和协调多种能力(规划、工具使用、反思)。研究的重点在于:
任务分解的复杂性:如何将模糊的用户指令(如“帮我分析一下公司的市场竞争力”)分解为一系列可执行的数据查询、分析和报告生成步骤。
执行的鲁棒性:在长链条的任务执行中,如何应对单个步骤的失败(如下载数据的API暂时不可用),并执行优雅的回退或重试策略。
验证与调试:如何让智能体能够自我验证中间结果的有效性,并在发现偏差时进行自我调试。反射机制,即让智能体回顾自己的行动轨迹并评估其有效性,是提升单智能体可靠性的关键。
- 多智能体系统:涌现的集体智能与复杂社会行为
多智能体系统将复杂性从单个智能体内部转移到了智能体之间的交互上。其核心假设是,通过角色分工和有效协作,一群“专才”智能体可以解决任何一个“通才”智能体都无法单独完成的复杂问题。
社会性智能的涌现:多智能体系统是一个研究社会性行为的适宜的模拟平台。智能体之间如何沟通(通信协议)、如何协商(博弈)、如何建立信任、如何解决冲突,这些人类社会中的核心问题,在多智能体系统中都有其对应物。例如,在模拟一个软件团队时,产品经理、开发、测试等角色的智能体需要有效地协作。
系统设计与涌现行为:多智能体系统的设计极具挑战性。简单的角色设定和交互规则,可能会产生意想不到的、复杂的涌现行为。这既可能是积极的(如高效的协作分工),也可能是消极的(如智能体陷入无休止的争论或形成小团体)。如何设计机制来引导涌现行为朝向期望的目标,是研究的重点。
应用前景:多智能体系统在复杂模拟(如城市交通管理、流行病传播预测)、大型软件项目开发、沉浸式游戏NPC互动等领域具有巨大潜力。它们可以形成一个动态的、不断演化的数字社会。
单智能体和多智能体并非对立,而是互补的。一个强大的单智能体是构建高效多智能体系统的基础,而对多智能体交互的研究成果,也可以反哺单智能体,提升其内在的思维对话或自我辩论能力。
五、 如何衡量智能?
如何科学地评估LLM智能体的能力,是一个尚未解决的关键挑战。著述提到了从静态基准转向过程导向评估的趋势,这至关重要。
- 重视过程质量
对于智能体,仅评估最终输出结果的正确性是远远不够的。一个即使最终失败的智能体,如果其推理过程清晰、步骤合理,也可能比一个偶然获得正确结果的智能体更有价值。因此,评估需要关注:
规划合理性:其任务分解是否逻辑清晰、步骤可行?
工具选择效率:是否选择了最合适的工具?是否存在不必要的工具调用?
容错与恢复能力:在遇到错误时,其应对策略是否有效?
- 构建复杂的模拟环境
许多现实任务无法在简单的问答数据集上评估。需要构建高保真的模拟环境(如虚拟桌面、软件项目管理系统、机器人操作平台),让智能体在其中执行任务,并从任务完成度、效率、资源消耗等多个维度进行综合评估。这些环境需要能够提供丰富、动态的反馈。
- 人类在环的评估
对于一些开放性、创造性或涉及价值判断的任务,完全自动化的评估是困难的。需要引入人类在环的评估,让人类专家对智能体的整体表现、创造性和协作能力进行主观评分。如何规模化、标准化地进行这种主观评估,也是一个研究课题。
- 安全性、可靠性与伦理评估
这或许是智能体评估中最紧迫的一环。我们需要系统化地评估智能体:
对抗攻击的鲁棒性:是否会被恶意输入误导而执行危险操作?
价值对齐:其行为是否符合人类的价值和伦理规范?
偏见与公平性:其决策是否会放大社会已有的偏见?
建立一个全面、公正、可扩展的智能体评估体系,是推动该领域健康发展的基石。
六、 迈向通用人工智能是漫漫长路
LLM智能体的研究,正将我们引向一条通往更通用人工智能的道路。展望未来,有几个方向尤为关键:
- 可验证的推理与透明度
未来的智能体必须能够解释自己的决策过程。这不仅是为了信任,也是为了安全。我们需要发展形式化方法来验证智能体推理链条的逻辑正确性,尤其是在医疗、金融等高风险领域。这可能需要将神经符号AI的方法引入,将LLM的模糊推理与符号逻辑的精确性结合起来。
- 持续与高效的学习
当前的智能体大多是在推理而非学习。一个任务完成后,除了可能存入记忆库的经验,智能体本身(模型参数)通常没有改变。如何让智能体能够从每一次交互中持续地、高效地学习,更新自己的模型,而不是依赖于代价高昂的定期微调,是实现长期自主性的关键。在线学习、元学习等都是可能的技术路径。
- 强大的世界模型与常识
LLM拥有丰富的语言知识,但缺乏对物理世界和社交世界的直观“感觉”。让智能体建立起强大的世界模型,能够预测自己行动的结果,理解因果关系,并掌握更深刻的常识,是避免其做出荒谬或危险行为的前提。多模态训练和与模拟环境的交互是构建世界模型的重要途径。
- 价值对齐与伦理考量
随着智能体能力的增强,价值对齐问题变得紧迫。我们如何确保一个高度自主的智能体的目标与人类创造者的初衷保持一致?这是一个复杂的技术问题,更是一个深刻的社会和哲学问题。需要从系统设计之初就嵌入伦理约束,并建立有效的监督和干预机制。
潜在的风险:技术滥用(自主性被用于恶意目的)、经济颠覆(大规模失业)、社会影响(过度依赖导致人类能力退化)以及无法预知的“涌现行为”带来的失控风险。这要求我们在技术发展的同时,必须同步推进AI治理、安全研究和公众教育。
我们正处在一个范式转换的临界点,LLM为构建能在复杂开放环境中行动的通用智能体提供了前所未有的可能性。通过模块化的架构、先进的使能技术以及单智能体与多智能体路径的探索,我们正在为机器注入更高层级的认知和行为能力。
然而,前路依然漫长。在可靠性、透明度、持续学习、价值对齐和评估方法等方面,我们仍面临着巨大的挑战。未来的突破将依赖于跨学科的共同努力,融合计算机科学、认知科学、伦理学和社会学等多领域的智慧。LLM智能体的发展,不仅仅是技术进步,更是一次对人类智能本质的深入探索,以及对我们如何与自己所创造的智能共存的深刻拷问。
七、LLM智能体的颠覆开始了吗
过去,我们使用AI,更像是使用一个功能强大的计算器,我们输入明确指令,它给出计算结果。但现在,LLM智能体展现出了一种模糊任务理解和自主拆解执行的能力。你可以告诉它“帮我分析一下上周的销售数据,找出问题并给出建议”,而不需要一步步指导它如何连接数据库、用什么统计方法、报告格式如何。这种任务层面的抽象能力,是迈向真正“智能伙伴”的关键一步。
ReAct、Reflexion等框架,是在LLM内部构建一个“认知循环”:思考-行动-观察-调整。这已经非常接近人类解决问题的方式。当这种能力与外部工具(搜索引擎、API、专业软件)深度融合时,LLM智能体就从一个语言大脑进化成了一个可以操控数字世界的手足。
但这里存在一个关键的信任鸿沟。当智能体的决策过程如同文中所说,仍然像一个黑箱时,我们很难在关键业务中放心地将决策权交给它。因此,未来发展的重点,不仅仅是提升智能体的“能力上限”,更是要提升其行为的可预测性、可解释性和可靠性。只有当人类能够理解并信任智能体的“思考过程”,真正的深度协作才有可能。
八、可能会出现智能体的混编模式
单智能体追求的是深度与可控性。它像一个全能的专业顾问,独立负责一个复杂任务的全流程。这种模式的优点是责任明确、内部状态一致、易于管理和调试。在需要高度专注、深度推理的领域(如复杂代码编写、专业报告生成、精密数据分析),一个强大的单智能体往往比一群协作的智能体更高效、更可靠。它的发展目标是成为某个领域的专家个体户。
多智能体系统追求的是广度与涌现效应。它像一个由专家组成的项目团队,通过分工、协作、辩论甚至竞争,来解决单个智能体无法处理的超复杂问题。这种模式的潜力在于系统层面的智能涌现。当多个具有不同角色和专长的智能体(比如一个“架构师”、一个“程序员”、一个“测试员”)围绕一个软件项目进行交互时,可能会产生超出任何一个单体设计的、更具创造性的解决方案。这在创新性任务、大规模系统仿真、复杂博弈环境中具有不可替代的优势。
未来的产业落地,很可能是“混编模式”。在一个大型企业内部,可能会部署一个由多种专用智能体(财务分析智能体、市场洞察智能体、风险控制智能体)组成的数字员工团队,并由一个或多个高级的管理者智能体进行协调和决策汇总。这要求智能体具备文中提到的标准化的通信协议和角色认知能力。
九、 数字世界的操作系统?
LLM本身是一个优秀的大脑,但它要真正在现实世界中产生价值,必须学会使用各种手脚,也就是外部工具和服务。
当前的工具集成,大多还处于函数调用的初级阶段:智能体根据需求,选择并调用某个特定的API。但未来的愿景应该是工具学习,智能体能够动态地发现、理解、学习使用一个新的工具,甚至将多个工具组合成全新的工作流。这相当于让智能体获得了在数字世界中发明新技能的能力。
一个更具想象力的未来是:LLM智能体可能演变为人机交互的新一代操作系统或中间层。用户不再需要学习和使用成千上万个不同的软件APP,只需要用自然语言向智能体下达指令,由智能体去调度底层的各种工具和服务来完成任务。用户接触的是统一的、自然的交互界面,而智能体负责处理背后复杂、异构的技术栈。
十、从独立任务到持续服务
一个没有记忆的智能体,每一次交互都是孤立的、从零开始的。它无法建立用户画像,无法进行连续的、上下文相关的对话,更无法实现真正的个性化服务。
有效的记忆系统,能让智能体持续学习用户的偏好、习惯和工作模式。它知道你上次处理某个问题时用了哪些方法、遇到了哪些坑、最终偏好哪种解决方案。这种长期的互动会形成一种默契,使得智能体从一个需要详细指令的新员工,逐渐成长为了解你工作风格的资深助理。
然而,记忆也伴随着巨大的挑战,尤其是隐私和安全。如何设计一个既能提供个性化服务,又能绝对保障用户数据安全的记忆架构?这需要技术和伦理的同步前进。或许未来会出现个人专属智能体,其所有记忆和模型都完全运行在用户本地,从根本上杜绝数据泄露的风险。
十一、 如何衡量一个数字员工的绩效?
传统的准确率、召回率等指标,对于完成开放式任务的智能体来说,已经不够用了。
我们需要一套新的评估体系,至少包括:
任务完成度:是否达成了既定目标?
效率:消耗了多少计算资源和时间?
成本:调用了多少付费API?总花费是多少?
可靠性:在100次任务中,失败了几次?
可解释性:能否清晰说明其决策理由?
协作性:在多智能体环境中,沟通和协作是否顺畅?
这就像考核一个人类员工,不能只看他写了多少行代码,还要看代码质量、项目贡献、团队合作等多方面因素。建立这样一套成熟、公认的智能体评估基准,是整个行业走向大规模商用的前提。
如何系统的学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。