别再问 AI “你怎么看”了
大多数人在使用生成式AI时,最常犯的一个认知错误,就是过度拟人化。
我们习惯了把 AI 当作一个“人”——一个博学、理性、偶尔会犯错的数字助手。所以我们总是下意识地问:“关于这件事,你怎么看?”
前特斯拉 AI 总监、OpenAI 创始成员 Andrej Karpathy 最近的一条推文,直接指出了这种交互方式的低效。他从技术原理层面,给出了一个极具价值的生成式 AI 使用模型:
不要把 LLM(大模型)当成一个“有观点的主体”,请把它当成一台“模拟器”。
这不仅仅是提问技巧的微调,而是对人机交互底层逻辑的重构。
01 为什么“你怎么看”是一个低效指令?
当你问 AI “你怎么看”时,你默认了两个隐含前提:一是它有一个稳定的“自我”(像人一样的人格);二是它在过去的时间里对这个问题有过长期的思考和沉淀。但这些都是错觉。
大模型没有日记本,没有人生阅历,它不会在深夜反思社会议题。当你问“你怎么看”时,你实际上是在触发一个“通用助手模式”**。
在训练数据的统计规律中,这种“助手模式”通常被对齐为:礼貌、温和、不偏不激、甚至带有某种迎合性。
所以,当你问“你觉得这个商业计划如何”时,模型通过概率预测,往往会输出一个泛泛的、安全的、两头不得罪的平庸答案。它不是在表达观点,它只是在履行“好说话的助手”这一角色的统计学特征。
02 第一性原理下认知跃迁:LLM 是“模拟器”
Karpathy 指出:大模型本质上是一个“观点与语气的模拟器”。
它学习过人类历史上几乎所有的文本——经济学家的辩论、工程师的技术文档、法学家的条文分析、愤青的论坛骂战,当然,还有你跟他絮絮叨叨的聊天。
它的核心能力不在于“它自己相信什么”,而在于它能高保真地模拟上述任何一类人(不只这些人)的思维路径和语言风格。
所以,更高效的策略不是问它(AI)怎么看,而是指定它去模拟一群具体的人,看他们怎么说。
03 为什么要这么做?背后的技术原理
这听起来像是在玩角色扮演,这也是我们经常在使用 AI 时,为其设定特定身份的原因,但其背后还有更丰富的理论基础,能直接提升生成质量。
其一,是增加条件约束,收敛生成分布。
大模型的工作原理是基于上下文的“下一个词预测”。当你问“你怎么看”时,条件太宽泛,生成的随机性很大。
当你指定“模拟一位风险投资人、一位反垄断律师和一位激进的产品经理”时,你给出了极强的条件约束。模型被迫调取训练数据中属于这几类专业角色的语料分布。
其二,调用“结构化思维”的先验数据
人类的高质量思考,往往不是一个人的独白,而是多方视角的博弈。
当你要求模型模拟“一组人”的讨论时,你其实是在调用语料库中那些高质量辩论、圆桌会议和政策分析的文本结构。你强迫模型把一个大问题,拆解成不同利益相关方的具体诉求。
这就把一个“一次性的态度”,变成了一张“可复用的观点地图”。
其三,规避迎合心态
如果你在提问中流露出某种倾向,通用助手模式往往会顺着你说。一个朋友说,自己策划了一个账号,跟GPT越聊越兴奋,问题就出在这里。
但如果你让它模拟“最苛刻的审视者、批评者”,它就必须基于这个角色的设定来挑刺。这种机制能帮你挖掘出那些在平庸对话中被隐藏的逻辑漏洞和长尾风险。
04 实操指南:从“单点询问”到“多维模拟”
理解了这一原理,你可以立即优化你的 Prompt 策略:
场景 1:做产品决策
普通视角: “你觉得我的这个产品方案有前途吗?有什么风险?”(得到:一堆正确的废话)
模拟器视角:“针对这个产品方案,请分别模拟挑剔的用户、注重成本的CFO、关注合规的法务进行圆桌讨论。他们各自最尖锐的批评会是什么?如果他们必须达成一个折中方案,会是什么?”
场景 2:写分析文章
普通视角: “请帮我写一篇分析人工智能未来的文章。”
模拟器视角:“对于人工智能的未来,请模拟技术乐观派(如KK)、社会伦理学家和失业焦虑的普通人三种视角。列出他们各自的核心论据,并指出他们观点中不可调和的冲突点在哪里。”
05 最后的话
AI 不是神谕,也不是拥有独立灵魂的智者(至少在现在)。它是一面镜子,也是一座包含了人类所有思维模式的图书馆。
不要试图和一个并不存在的“它”对话。去做导演,去设定参数,让它为你运行一场高精度的思维模拟。这才是人机协作时代该有的交互直觉。
P.S. Andrej Karpathy 推文:
Don't think of LLMs as entities but as simulators. For example, when exploring a topic, don't ask: "What do you think about xyz"? There is no "you". Next time try: "What would be a good group of people to explore xyz? What would they say?"The LLM can channel/simulate many perspectives but it hasn't "thought about" xyz for a while and over time and formed its own opinions in the way we're used to. If you force it via the use of "you", it will give you something by adopting a personality embedding vector implied by the statistics of its finetuning data and then simulate that. It's fine to do, but there is a lot less mystique to it than I find people naively attribute to "asking an AI".
不要把 LLM 当作“有自我”的实体,而应把它理解为一种“模拟器”。举例来说,当你在探讨某个话题时,别问:“你怎么看 xyz?”——这里并不存在一个真正的“你”。下次不妨改成:“如果要找一组合适的人来探讨 xyz,应该是谁?他们会怎么说?”LLM 的强项在于可以调用/模拟许多不同的视角,但它并没有像我们那样,长期反复地思考 xyz,并在时间里形成属于自己的观点。你如果硬用“你”来逼它表态,它当然也能给出一个答案——做法是:根据微调数据的统计规律,隐含地选取一个由措辞和语气所暗示的“人格向量”,然后把这个人格模拟出来。这样做没问题,但它远没有很多人以为的那种神秘:所谓“在问一个 AI 的意见”,本质上更多是在驱动一次模拟。