连云港市网站建设_网站建设公司_漏洞修复_seo优化
2026/1/10 12:02:59 网站建设 项目流程

文章总结了AI专家Andrej Karpathy关于大模型使用的经验分享,涵盖大模型基本原理(tokens处理、上下文窗口)、训练过程(预训练和后训练),以及实用技巧:选择合适模型、利用"Think"功能、使用互联网搜索和文档上传等工具、多模态交互和个性化设置等。这些方法能帮助用户更高效地利用大模型提升工作和学习效率。

Andrej Karpathy是人工智能和深度学习领域的顶尖专家,拥有斯坦福大学博士学位,曾任 Tesla AI 总监,现为 OpenAI 核心成员。他在计算机视觉、深度学习和自然语言处理领域有深厚的理论基础和丰富的实践经验,参与了 GPT 系列模型的开发,并推动了自动驾驶和 LLM 的应用。

近日,Andrej Karpathy 在Youtube上分享了名为**《How I use LLMs 》**的长达2个多小时的视频。

作为 AI 领域的意见领袖,他分享了自己日常如何利用大模型提升工作和学习效率,这对普通人也有很大的参考价值。

大模型的运作原理

一、大模型内部是怎么运作的?

与大语言模型(LMM)的最基本交互形式是用户输入文本查询,模型返回文本回复。用户输入的文本和模型返回的文本在底层都被切分成称为“tokens”的小文本块,一个查询和回复实际上是一个一维的、线形的 token 序列。

可以使用像 Tiktokenizer 这样的工具来查看文本是如何被模型分解成 token 的。

如下图所示:

即使在用户界面上呈现为聊天气泡,但在模型内部,对话被编码为包含特殊标记的 token 序列,以区分用户输入和模型回复。

模型维护一个“上下文窗口”,这是一个一维的 token 序列,代表了当前对话的“工作记忆”。模型可以直接访问上下文中包含的信息。

点击“新聊天”会清空上下文窗口,重新开始一个全新的对话。

用户写入 token,模型响应 token,通过特殊的“完成”token 来回传递控制权,共同构建上下文窗口。

二、大模型是怎么被训练出来的?

语言模型的知识主要来源于预训练和后训练阶段。在预训练阶段,模型通过学习互联网上的大量文本数据来获取世界知识。这个过程是将互联网信息压缩成一个“有损的、概率性的 zip 文件”,其内部是神经网络的参数。

由于预训练成本高昂且不常进行,模型存在“知识截止日期”,其内置知识仅限于训练时的数据。

在后训练阶段,模型通过人类标注的对话数据进行微调,使其具备助手的角色和风格,能够更好地回应用户查询。

总结:可以将 LLM 理解为一个“1TB 的 zip 文件”,其知识来自互联网,性格由人类标注者在后训练阶段塑造。其知识是过时的、概率性的且略显模糊。

理解这一点对我们用好LLM来说很重要。

如何使用好大模型?

基础原则:

在理解了大模型的运作原理之后,相信你可以很快得出以下结论:

  • LLM在回答不涉及最新信息且互联网上普遍存在的问题时表现良好,例如咖啡因含量或常见药物成分。
  • LLM的回答并非总是准确,尤其是在高风险场景下,建议参考主要来源进行验证。
  • 当切换话题时,建议开始新的聊天,以清除不相关的上下文 token,提高模型性能并降低计算成本。

1、选择适合你的模型和定价方案

当前有很多大模型:以GPT为例,有4o、o1、4.5等不同版本(对应不同能力);海外还有Claude Sonnet系列、Gemini等;国内有元宝hunyuan、Deepseek、豆包等。

在使用大型语言模型时,选择合适的模型和定价方案至关重要。高性能的模型(比如GPT-4o)通常需要支付更高的费用,但在专业使用时,这些费用是值得的,因为它们能提供更好的结果。

AK建议:可以尝试向多个不同的 LLM 提出相同的问题,以获取不同的视角和建议。(此处夹带一个编辑私货:我自己常用LLM组合为 Sider+ Grok3 + 元宝; Sider包含GPT、Claude、Gemini、Deepseek等模型各种版本;Grok3胜在x社媒内容优势;元宝则补充微信社媒内容。)

2、思考模型“Think”功能

在预训练和后训练之后,存在一个通过强化学习训练模型进行思考的阶段。模型通过大量的练习题学习问题解决策略。思考模型会进行更多的“思考”,尝试不同的想法,回溯、重新审视假设等。

思考模型在解决需要大量思考的复杂问题(如数学、代码)时更有效,但在简单问题上可能没有明显优势。另外,思考模型也需要更长的回复时间。

OpenAI 的以“o”开头的模型(如o1、o3)是思考模型;Anthropic 目前可能没有明确的思考模型;Google 的 Gemini Pro 可能具备一定的推理能力;Grok 3 也具备思考能力(需开启“Think”模式);Perplexity AI 托管了 DeepSeek R1 模型,该模型也具备推理能力。

**AK建议:**模型迭代很快,能力一直在提升。针对一个具体的问题,可以先用普通model,觉得回复质量不高之后,再可以切换到思考模型以获得更好的结果。

3、使用工具

前面提到,LLM本身是有一些特性和局限性的,但是我们可以通过使用工具来突破这些特性,最大化利用大模型。

1)互联网搜索工具

最有用的工具之一是互联网搜索。模型可以发出特殊的 token 来触发搜索,获取网页内容,并将其加载到上下文窗口中,从而回答最新的问题,相当于是在超级大压缩包之后,又增加了一个最新的知识来源。

不同的语言模型和应用程序在搜索工具的集成程度上有所不同,有些模型能够自动检测需要搜索的情况,而有些则需要用户明确指示进行搜索。

  • GPT的Search button
  • 而Gemini/Claude还没有互联网搜索功能(截止到视频发布日)

有两种场景适合互联网搜索。一种是针对“esoteric/深奥”的问题(互联网上不见得有充分信息)。另外一种就是想要了解最新的信息和趋势。例如,用户可以快速获取有关苹果发布会或新游戏版本的信息——这就适合使用搜索功能。

但是,使用搜索工具时,用户需要谨慎对待所获取的信息,并核实来源和内容。这是因为即使是先进的模型也可能出现误导,引用和参考资料的检查显得尤为重要。

**AK建议:**Perplexity AI 提供了一个很好的 LLM 互联网搜索工具,可以用于查询最新信息或模型知识库中可能没有的特定信息。AK遇到类似需求会第一个使用Perplexity AI 。

2)Deep Research

这是一种更高级的功能,结合了长时间的互联网搜索和思考,模型会进行多次搜索,分析大量信息,并生成详细的报告。目前在 ChatGPT Pro (200 美元/月) 中提供,Perplexity AI 和 Grok 也提供了类似的功能。

AK建议:GPT的Deep Research功能最好,细节更多,逻辑更缜密;但幻觉问题仍然存在,“citation”(引用)很重要,要花时间鉴别和检查。

3)上传文档:

用户可以将本地文档(如 PDF、文本文件)上传到 LLM,模型可以读取并理解这些文档的内容,从而回答关于文档的问题。 另外,LLM 可以帮助阅读理解书籍,回答阅读过程中的疑问,提高理解和记忆效率。

一个AK经常的使用场景是:和大模型一起读书。首先,AK会告诉它这是哪本书(给出背景),并复制粘贴一个章节的内容发给大模型,让他来阅读和总结。看完大模型的总结之后,AK再逐句去看书。遇到细节的问题看不明白再回到这个大模型窗口来互动提问。

AK认为:这种两个窗口跳换的阅读方式,极大提高了他对陌生领域知识的消化效率。

“Don’t read the book alone”——这的确是一个在AI时代,非常有用的阅读建议。

4)代码执行

LLM 可以生成并执行代码(如 Python),从而完成复杂的计算或数据分析任务。

当你问大模型,4999乘以2344等于多少的时候,GPT会打开Python解释器来计算,再把计算结果反馈到对对话窗口。

注意:每个LLM在可用工具方面可能存在差异,有些模型无法使用编程语言,导致其在处理复杂问题时可能会产生错误。比如Grok没有Python解释器,给到的计算结果可能是不准确的。

5)高级数据分析

ChatGPT 具备高级数据分析能力(Advanced Data Analysis),可以上传数据、分析数据,并根据需求进行可视化(绘制图表)等。

AK建议:这种功能虽然强大,但用户仍需仔细审查生成的代码,以确保数据的准确性和可靠性。

6)Artifacts 功能

Claude 提供 Artifacts 功能,可以根据用户指令生成简单的交互式 Web 应用程序,例如用于练习的 Flashcard 应用或数据可视化图表。

注意:Artifacts生成的是可供交互的web应用程序,而不只是图片。

AK特别喜欢这个功能来做各种图:

**7)**Vibe coding

“Vibe coding”这个词最早由AK在2025年提出,他用工具如Cursor Composer和Super Whisper,通过语音输入实现“几乎不碰键盘”的编码体验。如今,类似Cursor、Replit、GitHub Copilot等工具都在推动这一趋势,让编程更像“与AI聊天”(目前这也是海内外最热门的AI创业方向之一)。

简单来说,你告诉AI你想要做什么,比如“创建一个带登录功能的网页”,AI就会自动生成相应的代码;然后你再通过反馈(比如“把按钮改成蓝色”)逐步调整。

此处插播:硅谷知名孵化器YC执行合伙人Jared Friedman在Youtube上的一段访谈中表示:YC W25届中,有四分之一的公司95%的代码库都是由AI生成的。(有兴趣的朋友可以去YouTube搜索“VIbe Coding is the Future”)

4、多模态

1)音频输入输出:使用语音输入可以极大地提高与 LLM 交互的速度。许多操作系统和第三方应用提供语音转文本功能。AK在电脑上,一半时间是语音交互,在手机上,可能80%都是在用语音交互。但是这其实是假音频交换,因为输入时是将语音转成了文本给到大模型,底层仍然是文本token的交换。

2)原生音频处理(True Audio):一些高级模型(如 ChatGPT 的“Advanced Voice Mode”,Grok 的语音模式)可以直接处理和生成音频 token,实现更自然的语音交互,包括理解语调、模仿声音、快速计数等。

3)播客生成(NotebookLM):Google 的 NotebookLM 可以根据用户上传的文档(文本、网页、PDF)生成定制的播客内容。(想象一下:可以把一个PDF文件扔给NotebookLM,让它生成播客,然后在出门散步的时候听。本人亲试,效果很好。)

4)图像输入与理解:LLM 可以处理和理解图像,例如识别图像中的物体、分析营养标签、解读图表等。AK经常使用的流程是:发图片给ChatGPT,让它先读取文字,在检查文字无误后再基于内容进行追问。

**5)视频理解(ChatGPT 移动应用):**ChatGPT 的移动应用具备视频理解能力,用户可以对着摄像头展示物体或场景,并向模型提问。AK表示,这个功能很适合教会父母。

**6)图像生成(DALL-E 等):**LLM 可以根据文本提示生成图像,应用于内容创作等领域。

7)视频生成: 存在许多 AI 视频生成模型(如 V2A、OpenAI 等),可以根据文本提示生成视频内容,这项技术正在快速发展。

5、优化ChatGPT体验的其他功能

1)记忆功能:ChatGPT 可以记住用户在对话中提及的信息和偏好,并在后续对话中加以利用,从而提供更个性化的体验,但是这个功能需要被激发:比如在对话中遇到想要让ChatGPT记忆的内容,回复一句:“Can you remember this?”

**2)自定义指令:**在Setting/设置中,用户可以设置自定义指令,告知 ChatGPT 其偏好、身份和希望模型具备的特性,从而全局性地调整模型的行为。

3)自定义 GPTs:用户可以创建自定义的 GPT 聊天机器人,预设特定的指令和知识,用于完成特定的任务,例如语言学习工具。(和自定义指令不同,这是Plus及以上用户才有的功能)

AK给自己自定义了一个韩语学习GPT,每当他发一段韩语(文本或者图片)给这个GPT,对方就会按照一个设置好的格式回复这段韩语的教学内容(包含英文翻译,解释和用法介绍等)。

AK专门强调,在设置中除了给出背景和指令,同时给出“example output(回答模板)”非常重要。AK认为GPT是目前最好用的翻译工具——因为它可以处理复杂的句子结构,并理解文化背景和俚语。

小白/程序员如何系统学习大模型LLM?

作为在一线互联网企业深耕十余年的技术老兵,我经常收到小白和程序员朋友的提问:“零基础怎么入门大模型?”“自学没有方向怎么办?”“实战项目怎么找?”等问题。难以高效入门。

这里为了帮助大家少走弯路,我整理了一套全网最全最细的大模型零基础教程。涵盖入门思维导图、经典书籍手册、实战视频教程、项目源码等核心内容。免费分享给需要的朋友!

👇👇扫码免费领取全部内容👇👇

1、我们为什么要学大模型?

很多开发者会问:大模型值得花时间学吗?答案是肯定的——学大模型不是跟风追热点,而是抓住数字经济时代的核心机遇,其背后是明确的行业需求和实打实的个人优势:

第一,行业刚需驱动,并非突发热潮。大模型是AI规模化落地的核心引擎,互联网产品迭代、传统行业转型、新兴领域创新均离不开它,掌握大模型就是拿到高需求赛道入场券。

第二,人才缺口巨大,职业机会稀缺。2023年我国大模型人才缺口超百万,2025年预计达400万,具备相关能力的开发者岗位多、薪资高,是职场核心竞争力。

第三,技术赋能增效,提升个人价值。大模型可大幅提升开发效率,还能拓展职业边界,让开发者从“写代码”升级为“AI解决方案设计者”,对接更高价值业务。

对于开发者而言,现在入门大模型,不仅能搭上行业发展的快车,还能为自己的职业发展增添核心竞争力——无论是互联网大厂的AI相关岗位,还是传统行业的AI转型需求,都在争抢具备大模型技术能力的人才。

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

2、大模型入门到实战全套学习大礼包分享

最后再跟大家说几句:只要你是真心想系统学习AI大模型技术,这份我耗时许久精心整理的学习资料,愿意无偿分享给每一位志同道合的朋友。

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

部分资料展示

2.1、 AI大模型学习路线图,厘清要学哪些

对于刚接触AI大模型的小白来说,最头疼的问题莫过于“不知道从哪学起”,没有清晰的方向很容易陷入“东学一点、西补一块”的低效困境,甚至中途放弃。

为了解决这个痛点,我把完整的学习路径拆解成了L1到L4四个循序渐进的阶段,从最基础的入门认知,到核心理论夯实,再到实战项目演练,最后到进阶优化与落地,每一步都明确了学习目标、核心知识点和配套实操任务,带你一步步从“零基础”成长为“能落地”的大模型学习者。后续还会陆续拆解每个阶段的具体学习内容,大家可以先收藏起来,跟着路线逐步推进。

L1级别:大模型核心原理与Prompt

L1阶段:将全面介绍大语言模型的基本概念、发展历程、核心原理及行业应用。从A11.0到A12.0的变迁,深入解析大模型与通用人工智能的关系。同时,详解OpenAl模型、国产大模型等,并探讨大模型的未来趋势与挑战。此外,还涵盖Pvthon基础、提示工程等内容。
目标与收益:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为AI应用开发打下坚实基础。

L2级别:RAG应用开发工程

L2阶段:将深入讲解AI大模型RAG应用开发工程,涵盖Naive RAGPipeline构建、AdvancedRAG前治技术解读、商业化分析与优化方案,以及项目评估与热门项目精讲。通过实战项目,提升RAG应用开发能力。

目标与收益:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。

L3级别:Agent应用架构进阶实践

L3阶段:将 深入探索大模型Agent技术的进阶实践,从Langchain框架的核心组件到Agents的关键技术分析,再到funcation calling与Agent认知框架的深入探讨。同时,通过多个实战项目,如企业知识库、命理Agent机器人、多智能体协同代码生成应用等,以及可视化开发框架与IDE的介绍,全面展示大模型Agent技术的应用与构建。

目标与收益:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。

L4级别:模型微调与私有化大模型

L4级别:将聚焦大模型微调技术与私有化部署,涵盖开源模型评估、微调方法、PEFT主流技术、LORA及其扩展、模型量化技术、大模型应用引警以及多模态模型。通过chatGlM与Lama3的实战案例,深化理论与实践结合。

目标与收益:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。

2.2、 全套AI大模型应用开发视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

2.3、 大模型学习书籍&文档

收录《从零做大模型》《动手做AI Agent》等经典著作,搭配阿里云、腾讯云官方技术白皮书,帮你夯实理论基础。

2.4、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

2.5、大模型大厂面试真题

整理了百度、阿里、字节等企业近三年的AI大模型岗位面试题,涵盖基础理论、技术实操、项目经验等维度,每道题都配有详细解析和答题思路,帮你针对性提升面试竞争力。

【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】

2.6、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询