在很多技术社区里,大家一谈到大模型,讨论焦点几乎都集中在:
Prompt 怎么写更稳
模板怎么复用
如何让 AI 一次性给出“正确答案”
但当我把大模型真正用到高风险文本场景(比如法律、合规、风控类文书)之后,很快发现一个问题:
问题根本不在 Prompt,而在交互方式本身。
一、在高风险场景中,AI“太聪明”反而是问题
如果你让 AI 直接生成一份完整文本,通常会遇到这些情况:
表达非常流畅,但你并不确定每句话是否都在你的责任边界内
有些逻辑“看起来对”,但你无法确认是否基于你提供的事实
一旦结果被采纳,后果却只能由人承担
这在低风险场景无所谓,
但在高风险场景中,是不可逆的。
二、我后来意识到:该变的不是模型,而是交互范式
我逐渐放弃了“让 AI 自动写好一切”的方式,转而采用一种更克制的人机协作模式:
人负责判断与责任,
AI 负责结构、变量扫描和风险显性化。
这个变化,看起来只是“用法不同”,
但实际效果完全不一样。
三、一个最小可跑的人机协作 DEMO(展示用)
下面是一个不涉及任何真实主体的最小示例,只用来说明交互方式。
1️⃣ 人先提供事实(不下结论)
文书类型:答辩类文书 我的立场:不同意对方主张,但希望风险可控 已确认事实: - 某时间点,发生了一次明确的合同关系 - 后续产生争议,关键沟通记录存在 - 对方主张基于单一文件展开 已有证据: - 证据A:沟通记录截图 - 证据B:文件回执注意:
这里只是事实与立场边界,没有任何法律判断。
2️⃣ AI 的任务被严格限制
AI不被允许直接生成结论性文本,只能做三件事:
1)扫描可能影响结果的关键变量 2)指出哪些表达存在潜在风险 3)给出不同处理路径的利弊对比(A / B / C)此时 AI 更像一个:
变量扫描器 + 风险雷达 + 结构校验器
3️⃣ 人做选择,AI 再进入“整理表达”阶段
只有在用户明确选择路径之后,
AI 才被允许把内容整理成一份结构化草稿,并标注:
哪些段落基于哪些事实
哪些点仍需要人确认
哪些地方属于“可回退风险区”
四、这种方式最大的收益,不是效率,而是确定性
很多第一次尝试这种方式的人,反馈都很类似:
“原来我以前不是不会用 AI,
而是从来不知道自己在哪一步做了决定。”
这正是人机协作真正解决的问题:
不是替你承担责任
而是让你在承担责任之前,把变量看清楚
五、为什么我反而不追求“AI 写得更漂亮”?
从工程角度看:
漂亮 ≠ 稳定
修辞 ≠ 可控
自动化 ≠ 安全
在高风险场景中,我更关心的是:
表达是否可审计
判断是否可回溯
每一步是否能人工确认
而这些,恰恰不是“自动生成”擅长的地方。
六、这其实是一次交互范式的转变
我并不是在否定 AI 的能力,
而是在重新定义它的位置:
AI 不是决策中枢,
而是判断放大器。
一旦这个位置放对了,
人机协作带来的,不是依赖感,而是掌控感。
结语
如果你只在低风险场景用 AI,
那自动化当然是最省事的选择。
但一旦进入需要你亲自承担后果的领域,
也许更重要的问题不是:
“AI 能不能替我做决定?”
而是:
“我有没有在做决定之前,看清楚所有变量?”
这,正是人机协作存在的意义。
常见问题(Q&A)
Q1:你为什么在法律场景中如此强调“人机协作”,而不是让 AI 自动生成?
A:
因为在高风险场景中,真正危险的不是“写得不好”,而是判断权和责任被无意识地交给系统。
我强调人机协作,是为了确保:判断在我,责任在我,AI 只做结构与风险显影。
Q2:可我并不懂法律,这样的人机协作不会更危险吗?
A:
恰恰相反。
正因为不懂法律,更不能把不可逆的判断交给自动化系统。
人机协作不是要求你变成专家,而是防止你在不知情的情况下越界表达。
Q3:为什么法律场景不是“针锋相对”,而是你说的“博弈”?
A:
因为法律系统的目标不是情绪对抗,而是风险裁剪与结果收敛。
针锋相对会放大变量,而博弈是在控制变量。
我不追求语言漂亮,是因为“漂亮”往往意味着越界。
Q4:你为什么总强调“最终责任必须落在人身上”?
A:
因为只要责任不在人身上,系统行为一定会变形。
AI 可以分析、提醒、模拟后果,但不能替人承担后果。
责任是决策的锚点,不是负担。
Q5:你这样是不是在压制 AI 的潜力?
A:
我压制的不是 AI 的能力,而是AI 作为代理决策者的幻觉。
真正的 AI 潜力,是放大人的判断,而不是取代人的位置。
Q6:如果人判断错了,AI 为什么不直接纠正?
A:
因为“纠正”本身就是一种决策权。
AI 可以指出风险、列出变量、对比路径,但最终选择必须由人完成,否则责任链会断裂。
Q7:这种人机协作方式,为什么比 AI 自动化更难被抄走?
A:
因为自动化抄的是输出,而人机协作绑定的是人的判断与责任结构。
你可以复制形式,但复制不了“哪些话明明能写,却被主动放弃”。
Q8:你为什么一直强调要改变人与 AI 的交互范式?
A:
因为旧范式在高风险场景下是结构性失效的。
问题不在模型能力,而在人把什么权力交给了 AI。
我不是要 AI 更像人,而是要人始终站在判断与责任的中心。
Q9:文中的 DEMO 为什么这么“简单”?
A:
因为 DEMO 展示的是交互顺序与协作方式,不是具体能力。
真正的价值在“谁先判断、谁后表达”,而不在模板本身。
Q10:这种方式适合所有人吗?
A:
不适合。
它天然筛掉那些只想“一键搞定”的人。
但对需要承担真实后果的场景来说,这种筛选本身就是安全机制。