引言
过去一段时间,我在不同场景中反复使用大模型协助写作、分析和整理信息。
直到我把它真正引入高风险文本场景(例如需要承担现实后果的正式文书)后,才意识到一个问题:
问题并不在于模型够不够强,而在于交互方式本身是否可靠。
这篇文章并不是讨论某个模型、某种 Prompt 技巧,
而是记录一次人机协作方式的调整,以及它为什么让我放弃了“AI 自动生成”。
一、自动生成在高风险场景中的结构性问题
在低风险场景中,让 AI 自动生成内容,几乎没有心理负担。
但在高风险场景中,这种方式会暴露出一些结构性问题:
- 使用者很难确认哪些内容是基于事实,哪些是模型推断
- 表达往往在不自觉中扩张,超出原本可控边界
- 一旦结果被采纳,责任却只能由人承担
- 事后很难回溯:究竟是在哪一步做出了关键判断
这些问题并非模型缺陷,而是交互顺序不合理导致的。
二、问题的根源:判断权与责任的错位
在现实世界中,有一个不可回避的事实:
模型不是责任主体。
无论内容由谁生成,
只要进入现实流程,最终承担后果的,一定是人。
如果一个系统允许模型在未经人确认的情况下:
- 参与判断
- 选择立场
- 优化结果
那么这个系统在高风险场景中,天然就是不稳定的。
三、一次简单但关键的转向:从“生成”到“协作”
意识到这一点后,我开始调整使用方式:
不再让 AI 直接生成完整文本,
而是把它放在一个更克制的位置上:
人负责判断与责任,
AI 负责结构、变量扫描和一致性校验。
这不是能力上的退步,而是系统稳定性的前置条件。
四、一个最小协作示例(仅展示交互方式)
下面这个示例不涉及任何真实主体,仅用于说明协作流程。
1️⃣ 人先提供事实与边界
文书类型:答辩类文本立场边界:不同意对方主张,但以风险可控为优先已确认事实:
- 某时间点存在明确的合同关系
- 后续产生争议,关键沟通记录可核验
- 对方主张主要基于单一文件已有证据:
- 证据A:沟通记录
- 证据B:文件回执
注意:
这里只包含事实与边界,不包含任何结论性判断。
2️⃣ AI 的角色被明确限定
AI 不直接输出结论,而是被要求:
- 扫描可能影响结果的关键变量
- 指出潜在的表达风险
- 给出不同处理路径的对比(不替人选择)
此时,AI 的角色更像是:
结构分析器 + 风险显影器
3️⃣ 人确认路径后,AI 才整理表达
只有在人工确认之后,
AI 才被允许整理为结构化草稿,并标注:
- 每段内容对应的事实来源
- 哪些点仍需人工确认
- 哪些地方属于可回退区域
五、这种方式带来的变化
采用这种协作方式后,最大的变化并不是效率,而是:
- 决策过程变得清晰
- 风险边界变得可见
- 使用者清楚地知道:哪一步是自己在做决定
这种清醒感,在高风险场景中非常重要。
六、为什么我不再追求“AI 写得更好看”
在工程视角下:
- 更漂亮的表达 ≠ 更安全的系统
- 更强的生成能力 ≠ 更低的失误率
在高风险场景中,我更看重:
- 是否可回溯
- 是否可审计
- 是否允许人工介入与回退
而这些,恰恰是完全自动化最容易忽略的部分。
七、这本质上是一次交互范式的变化
这次调整,并不是否定 AI 的能力,
而是重新定义它在系统中的位置:
AI 不应成为决策中枢,
而应成为判断放大器。
当判断与责任重新回到人身上,
人机协作才真正成立。
结语
如果只是为了提高效率,
AI 自动生成无疑是最直接的选择。
但当场景涉及真实后果时,
也许更值得问的问题是:
这个系统,是否允许人在任何时刻接管判断?
对我而言,这正是人机协作存在的意义。
常见问题(Q&A)
Q1:你为什么在法律场景中如此强调“人机协作”,而不是让 AI 自动生成?
A:
因为在高风险场景中,真正危险的不是“写得不好”,而是判断权和责任被无意识地交给系统。
我强调人机协作,是为了确保:判断在我,责任在我,AI 只做结构与风险显影。
Q2:可我并不懂法律,这样的人机协作不会更危险吗?
A:
恰恰相反。
正因为不懂法律,更不能把不可逆的判断交给自动化系统。
人机协作不是要求你变成专家,而是防止你在不知情的情况下越界表达。
Q3:为什么法律场景不是“针锋相对”,而是你说的“博弈”?
A:
因为法律系统的目标不是情绪对抗,而是风险裁剪与结果收敛。
针锋相对会放大变量,而博弈是在控制变量。
我不追求语言漂亮,是因为“漂亮”往往意味着越界。
Q4:你为什么总强调“最终责任必须落在人身上”?
A:
因为只要责任不在人身上,系统行为一定会变形。
AI 可以分析、提醒、模拟后果,但不能替人承担后果。
责任是决策的锚点,不是负担。
Q5:你这样是不是在压制 AI 的潜力?
A:
我压制的不是 AI 的能力,而是AI 作为代理决策者的幻觉。
真正的 AI 潜力,是放大人的判断,而不是取代人的位置。
Q6:如果人判断错了,AI 为什么不直接纠正?
A:
因为“纠正”本身就是一种决策权。
AI 可以指出风险、列出变量、对比路径,但最终选择必须由人完成,否则责任链会断裂。
Q7:这种人机协作方式,为什么比 AI 自动化更难被抄走?
A:
因为自动化抄的是输出,而人机协作绑定的是人的判断与责任结构。
你可以复制形式,但复制不了“哪些话明明能写,却被主动放弃”。
Q8:你为什么一直强调要改变人与 AI 的交互范式?
A:
因为旧范式在高风险场景下是结构性失效的。
问题不在模型能力,而在人把什么权力交给了 AI。
我不是要 AI 更像人,而是要人始终站在判断与责任的中心。
Q9:文中的 DEMO 为什么这么“简单”?
A:
因为 DEMO 展示的是交互顺序与协作方式,不是具体能力。
真正的价值在“谁先判断、谁后表达”,而不在模板本身。
Q10:这种方式适合所有人吗?
A:
不适合。
它天然筛掉那些只想“一键搞定”的人。
但对需要承担真实后果的场景来说,这种筛选本身就是安全机制。