本文通过"用大模型学习大模型"的案例,展示了与AI有效沟通的方法。提出"乔哈里窗"模型扩大共识区,强调"知之为知之"原则需验证AI输出。分享AI能力提升框架:教育学+思维模型+AI技术+AI工具,以及哲学、文学、艺术、历史等底层支撑。核心观点是AI应让人回归做"人"该做的事,将机械工作交给AI,实现技术与人的和谐共处。
这是我在“时间的朋友 2026·呼和浩特分会场”为大家带来的 AI 分享。作为一名普通的 AI 从业者和思考者,我基于原本的内容进行了补充和整理,希望能作为这一年的总结,给大家带来一些启发和帮助。🌟
👋 开场
大家好!我是今天的分享人——流月,也是本次活动的组织者之一。今天我想和大家聊聊“我对 AI 的使用心得和思考”,为此,我特意准备了一个“用大模型学习大模型原理”的案例,主打一个“原汤化原食”!🥣
🎓 **先简单自我介绍一下:**我是流月,朋友们也戏称我为“郭 AI”(虽然听着像机器人,但我不介意哈哈 😄)。
- • 👨💻职业身份:某创业公司 CTO、技术合伙人。
- • 🏫学术身份:内蒙某高校校外导师。
- • 🚀专注领域:AI 大模型落地应用、企业 AI 技术顾问及培训。
- • 💼过往经历:曾在深圳、天津从事软件开发,做过中小企业架构师。最重要的是,我是一名坚定的AI 实践者。
当然,我还有另一个侧面——终身学习者📖。我是“得到”的重度用户,加入已超过 3600 天,学分达到了 967 分,这在“得到”圈子里应该也算是个“稀有物种”了吧?😎
💬 与 AI 的沟通心得
😫 我们遇到的问题
大家在使用 AI 时,是不是常有这样的困惑:看别人分享的案例,AI 总能“一键生成”完美结果 ✨;可轮到自己动手时,AI 的回答却总是不尽如人意,甚至一本正经地胡说八道?🤯
这次,我们换个新思路!我不展示那种“一次成功”的完美结果,而是带大家复盘一下:**当我对 AI 的输出不满意时,我是如何一步步引导它进行迭代的。**🔄
🎥 案例演示:用 AI 学习 AI
下面我们进入实战环节:我用大模型来学习大模型原理。
本次演示我使用的是ChatGPT。大家也可以用豆包或其他模型,原理是通用的。为了方便,我直接使用了语音对话(文字对话同理)。请大家看看我是如何一步步与 AI “过招”,最终得到我想要的结果的。👇
以下是我们的对话实录:
You: “你好,我想学习大模型的原理,你帮我解释一下Transformer架构。”
ChatGPT: 当然可以!Transformer架构其实是一种用于自然语言处理的模型架构,它的核心是“自注意力机制”,也就是能够让模型在处理每个词的时候,都能关注到输入
You: “这些专业名词我听不太懂,你能不能用更加通俗易懂的方式来给我解释?”
ChatGPT: 当然没问题!你可以把Transformer想象成一个聪明的“翻译机器人”,它会在看每个词的时候,同时去关注句子里其他所有词的关系。这样一来,它就能更好地理解上下文,从而更准确地理解和生成语言。这样解释会不会更容易一点呢?
You: “相对容易一点,但是我觉得还是不够接地气,我希望你用一个日常生活中的例子来解释一下”
ChatGPT: 好的,那我们就来举个日常生活的例子吧!你可以把Transformer想象成一群朋友在一起聊天,每个人说话的时候,都会同时听取其他朋友的话,这样他们就能更好地理解整个对话的意思。每个人都会关注对方的观点,从而让整个交流更加顺畅和清晰。这样说是不是更形象一些呢?
You: “我听过他们说有用成语接龙来举例的,你是否可以把这个例子扩展一下,让我记忆深刻。”
ChatGPT: 当然可以!你可以把Transformer想象成一个成语接龙的游戏,每个词就像一个成语,而模型在选择下一个成语的时候,会根据前面已经出现的成语来判断最合适的下一个。这样一来,每一个词都会和前面的词紧密相连,确保整个句子的意思连贯又合理。这样解释是不是会让你更容易记住呢?
You: “但是我旁边有一个三、四年级的小朋友,我希望也让他能够听懂。”
ChatGPT: 明白,那我们就用更简单的方式来试试吧!你可以把Transformer想象成一个小伙伴在玩接龙游戏。每当他听到一个词时,他会同时记住之前说过的词,然后根据这些线索来决定下一个要说的词。这样子,他就能一直保持一个连贯、有趣的故事,不会乱掉。这样小朋友应该也能很容易理解啦!
You: “嗯,稍微能理解了点,但是我感觉还有个问题,就是这个例子不够吸引人,他喜欢哆啦 A 梦,你是否可以用哆啦 A 梦的例子来帮他理解的更深刻一些?”
ChatGPT: 当然没问题!那我们就用哆啦A梦来举例吧。你可以把Transformer想象成哆啦A梦的百宝袋,每当哆啦A梦拿出一个道具时,他都会根据当前的情况和之前用过的道具来决定下一个要用什么。这样一来,哆啦A梦总能让整个故事更有条理、更有趣,就像Transformer一样,通过关注之前的内容来帮助理解和生成新的内容。这样就更容易让小朋友明白啦!
You: “你是否可以再举一个他喜欢的奥特曼打怪兽的例子?”
ChatGPT: 当然可以!那我们就用奥特曼打怪兽来举个例子吧。你可以把Transformer想象成奥特曼在打怪兽的过程中,每当他面对一个怪兽时,都会根据之前的战斗经验来选择下一步的攻击方式。也就是说,奥特曼会参考之前的战斗情况,来不断调整自己的策略,确保每一次的战斗都更有效、更顺利。这样小朋友应该就会觉得很有趣,也更容易理解Transformer的原理啦!
You: “我大致理解了,那你是否可以更加结构化一点,用是什么、为什么、怎么做,来分析一下Transformer?”
ChatGPT: 好的,那我们就用“是什么、为什么、怎么做”来梳理一下。 首先,是什么:Transformer是一种神经网络架构,主要用于处理语言和文本,它通过自注意力机制来理解和生成信息。 然后,为什么:它之所以有效,是因为它能够同时关注输入中所有词之间的关系,而不是像传统模型那样只能顺序地看待。这就让它对语言的理解更全面、更精准。 最后,怎么做:Transformer通过多个“自注意力”层和“前馈神经网络”层来处理信息,并且通过并行计算,让
You: “好,你这个又过于复杂了,你能不能用简单的通俗的话来讲,我不需要这些专业知识。”
ChatGPT: 好的,那我就再简单一点来说! 首先,Transformer就是一种聪明的语言理解工具,它可以同时看看一句话里所有词的关系,而不是只看一个词接一个词。这样它就能更好地理解整句话的意思。 为什么它这么厉害呢?因为它会把所有词都连接起来,不会漏掉任何重要的信息,这样就更准确。 至于怎么做到的,就是它用一种很聪明的方式,同时处理很多信息,让整体的理解更快速、更高效。 这样解释是不是更容易理解一些呢?
如果觉得光看文字不够直观,没关系,我们换个更有趣的方式!😉 下面我将邀请 Google 的Gemini模型来为我们生成一张漫画图。🎨
You:“用中文文字,帮我生成一个讲解Transformer的哆啦 A 梦的漫画的图片”
Gemini:
这就是我要分享的案例。我们使用 AI 的关键不是很多人在讨论说如何写出提示词,或者学会什么提示词结构,然后就万事大吉了,其实这些只是表象。真正的核心在于:**你是否清楚自己的目的。**🎯
就像哆啦 A 梦说的:“如果你说不清目的地,任意门也无法带你去你想去的地方。” 与 AI 沟通,亦是如此。🚪
🪟 乔哈里窗与“知之为知之”
🧩 乔哈里窗
在这里,我想借用哆啦 A 梦的一个道具——“乔哈里窗”。这本是一个心理学沟通框架,但我发现它也非常适合用来解决与 AI 的沟通问题。💡
简单介绍一下,乔哈里窗将认知分为四个区域:
- ↖️共识区:我知道,你也知道。
- ↗️我的盲区:我不知道,你知道。
- ↙️你的盲区:我知道,你不知道。
- ↘️共同盲区:我不知道,你也不知道。
大家看图里的例子就很生动:
- •共识区:静香和大雄玩得很好,显而易见。
- •我的盲区:哆啦 A 梦给大雄制造迷雾,大雄懵了,看不清真相。
- •你的盲区:大雄藏了东西戏弄胖虎,胖虎不知道。
- •共同盲区:哆啦 A 梦和大雄都迷路了,找不到山洞出口。
在人际沟通中,我们的目标通常是扩大共识区。现在我们将对象换成 AI,道理也是一样的:
- •共识区= 我知道 AI 知道的。
- •我的盲区= 我不知道,但 AI 知道的。
- •AI 的盲区= 我知道,但 AI 不知道的。
- •共同盲区= 我们都不知道的未知领域。
回看我刚才的案例,我和 AI 的沟通过程,本质上就是在不断扩大共识区。🔄
- 最开始,我说“我要学习 Transformer”:这是告诉 AI我要干什么。
- AI 给了专业解释,我听不懂。于是我说“我是小白,不要专业术语,要通俗”:这是在向 AI补充我的背景信息,缩小 AI 的盲区。
- 我又觉得光有概念不够,让它举例;后来又补充“三四年级小朋友”、“哆啦 A 梦”、“奥特曼”等具体场景和偏好。
每一次互动,都是在向 AI 同步信息,让 AI 对我的环境和需求认识得更深刻。从简单的 Transformer 概念,到最后生成小朋友能懂的解释,共识区就是在这一步步的反馈中被撑大的。📈
这个思路其实参考了提示词大神李继刚的思维方式。这也只是冰山一角,如果要展开讲“如何扩大共识区”,我有一整套独门秘籍,今天时间有限,先抛砖引玉,以后有机会再细聊!😜
🕵️♂️ 知之为知之
除了沟通技巧,我认为还有一个底线原则非常重要,那就是孔老夫子说的:**“知之为知之,不知为不知,是知也。”**☝️
在与 AI 协作时,我们必须具备验证 AI 输出结果的能力。切记,不要把“不知道”假装成“知道”,否则很容易被 AI 忽悠。
比如刚才讨论 Transformer,因为我自己读过相关内容,所以我能判断它说得在理。但如果你完全不懂,可能就被糊弄过去了。就像 Transformer 本意其实是“变形金刚”,如果你不去限定大模型相关的领域知识,有些模型会给你返回变形金刚的信息。
**💡 建议:**学会验证!可以用多个 AI 交叉验证,最好的办法是AI + 搜索引擎结合起来验证。🔍
大家应该都听过大模型的“幻觉”问题。早期我们常拿“林黛玉倒拔垂杨柳”来测试 AI,结果 AI 真能给你编出一套有模有样的故事来 😂。这逻辑就像一个只看过《红楼梦》和《水浒传》简介的学生,知道林黛玉存在这么个人物,同时还听过倒拔垂杨的故事,但是都没太理解明白,最后不懂装懂,把两个故事拼凑在一起了。
现在的 AI 此类低级错误少了很多,但隐蔽的错误可能更多。如果你想从那个“不懂装懂的同学”嘴里套出真话,最好的办法就是提出质疑。通常一旦你质疑,它自己就会去纠错。如果遇到顽固的 AI,那你就要提升自己的鉴别能力,或者要求它基于可靠的信源进行分析(这也是很多 AI 联网搜索功能存在的意义)。
图中右边那个案例很经典:美国有位律师直接引用了 AI 编造的虚假案例,结果被法庭惩罚,成了业界的笑柄。🚫⚖️
正如哆啦 A 梦所言:“如果你无法判断真伪,AI 就可能用一本正经的胡说八道来糊弄你。千万别成为那个被道具捉弄的大雄!”
🚀 AI 使用能力的提升框架
光有乔哈里窗还不够,那只是解决了“沟通”问题。想要深入掌握 AI,我们需要更系统的修炼。这里我总结了一个公式:
🎓 教育学 + 🧠 思维模型 + 💻 AI 技术 + 🛠️ AI 工具 = 🏢 一人公司 & 🧬 AI-Native
🏛️ 底层支撑:📚 哲学 + 📜 文学 + 🎨 艺术 + ⏳ 历史
先来看看这个公式导出的结果:
- 🏢 一人公司 (One-Person Company): 我刚开始本来是想分享一人公司,但我写完稿子发现这个案例会有比较多的概念,听起来有点枯燥,而且内容又比较杂,而且有些地方不是很落地,对于多数人来说短期内容理解成本太高,最关键是还需要很多AI的基础,所以我就把这部分删除了。这里不是说非得只有一个人,而是指**“更少的人力 + AI”** 就能完成原本需要团队才能搞定的任务。不要被“一人”字眼局限,其核心是效率的倍增。当然,对于复杂任务,我更推荐这种模式下的小规模精英团队协作。
- 🧬 AI-Native (AI 原生/优先): 这是现在很多前沿公司推崇的模式。以前的工作流完全没考虑 AI,而现在我们要围绕 AI 重新构建工作流。而这个方式其实不光适合公司,其他也适合个人。比如我自己,现在遇到新问题,第一反应就是“能不能用 AI 解决?”,就像刚才我演示的那样。
⚔️ 一套装备
1️⃣ 🎓 教育学
不仅是教孩子,更是教我们如何学习。在 AI 时代,自学能力尤为重要。 我们要学会利用脑科学和认知心理学。举个例子——认知负荷理论:
- • ❌错误教法:先教“2个苹果+3个苹果=5个苹果”,下节课直接跳到“7个梨+5个梨=12个梨”。孩子会懵,因为他既要处理加法运算,还要处理从苹果到梨的抽象映射,大脑过载了。
- • ✅正确教法:先教“2个苹果+3个苹果=5个苹果”,再教“2个梨+3个梨=5个梨”,让孩子明白“数”与“物”的关系,再增加难度。 懂点教育学,你不仅能教会孩子,更能教会 AI(提示词工程某种程度上就是“教” AI)。
2️⃣ 🧠 思维模型
给 AI 装上“大脑框架”。比如刚才的“是什么、为什么、怎么做”。假设你要想要了解一个人,你用大MBTI或者大五人格得到一些具体结果,会比你直接分析这个人,最后得到一些片汤话会更加有帮助。
原因:大模型训练时,这类高质量数据权重很高。如果你用这些经典的思维模型去提问,触发大模型“高质量回答”的概率会大大增加!
3️⃣ 💻 AI 技术
虽然我是程序员,但我不建议大家都从底层代码学起。 大家只要把 AI 技术当故事听就行。了解点科普知识,别只看那些“XX 颠覆世界”的标题党。 比如理解了“Token”大概是什么,理解了“幻觉”怎么产生的,你使用起来会更加从从容容游刃有余,遇到问题也不会只会翻什么“大神宝典”,而是能自己推导解决方案。🧩
4️⃣ 🛠️ AI 工具
**别在一棵树上吊死!**🌲 关键是要学会用不同的AI工具来实现最大化收益,而不是为了前期方便,后续得到一个完全不适合的结果,那样改动成本会更高。
就像我刚才的案例,我知道 ChatGPT 可以生图,但是我没有用 ChatGPT 生图,因为它生成出来的中文效果是不好的,而且有些图片的审美和一些内容逻辑不是很好,所以我还是习惯用 Gemini 来生成图片,包括咱们大家可以多尝试一些不同的模型,光国内就有很多选择,例如:智谱、kimi、DeepSeek,而不是只是在用惯了一个豆包,最好可以去尝试一下国内的模型,你会发现新的天地。🌍
🏛️ 底层支撑
光有“术”不行,还得有“道”。
📚 哲学
有了哲学,你就有了批判性思维,能一眼看穿 AI 的逻辑漏洞。 🤔玩法推荐:让 AI 扮演苏格拉底,“精神助产术”了解一下?不要直接问答案,让它用提问引导你思考。你会发现,这种深度的思想碰撞,比直接百度一个答案爽多了!
我很喜欢和大模型去讨论一些自己学到的知识,尤其是一些书籍或者课程的经典片段内容,我一般会把这个部分内容输给大模型,然后让大模型利用不同的哲学角度来给我反馈,我会发现我对原本的内容理解更加深刻,甚至有时候会把书本上的内容,结合自己的实际情况内化成自己的指导建议,这个方法一般不告诉其他人。不过需要注意的是,有时候有些模型会把这些信息作为敏感内容,所以建议你可以尝试多换几个模型来使用。✨
📜 文学
文学是创意的源泉。🧠 你脑子里那些天马行空的念头,以前可能只是念头,现在有了 AI,你就是神笔马良!但是,你的想法越丰富(文学底蕴),AI 给你的反馈就越惊艳。这就形成了一个正向飞轮,拉开了你和普通使用者的差距。 别忘了,AI 生成的东西往往冷冰冰,需要你用文学的笔触去润色,注入“人味儿”和情绪价值。💖
🎨 艺术
艺术也是同理。以前我不会画画,根本画不出哆啦 A 梦。现在有了 AI,我就是画家。🎨 如果你有艺术修养,了解达利的超现实主义、吉卜力的治愈风,你可以让哆啦 A 梦变成《天竺鼠车车》的毛毡风格,或者赛博朋克风。这种审美的想象能力,不是简单会使用 AI 就可以取代的。
⏳ 历史
历史让我们拥有上帝视角。🌍 AI 不是这两年突然蹦出来的。从达特茅斯会议算起,它已经走了 60 多年。
正如我合伙人他是学科技史的,他们相关人员看到的发展都很长远,一个技术的诞生它可能需要前置很多条件,而不是说只是说简单的一下就会爆发起来,它一定是个线性的、持续性的一个增长,而不是说突然什么技术就爆发了。了解历史,你就不会因为眼前的技术更新而焦虑。就像辛顿的坚持、Transformer 的提出、AlphaGo 的爆发、英伟达的 GPU……这一切都是线性积累的结果。**在大历史观面前,你会更加淡定。**☕
📖 书单推荐
为了方便大家进阶,我精选了一份书单:📚
如何系统的学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。