计划经济型AI,还是自由市场式AI?

我们对 AI 的恐惧大多源于好莱坞式的想象:一台像上帝一样的超级计算机突然苏醒,像“天网”一样接管全球。

在这种叙事下,我们把 AI 安全看作是一场“心理战”——我们试图教机器人学会仁慈、学会对齐(Alignment),就像在计划经济中,试图通过完美的中央指令来规范每一个零件。

但DeepMind最近的一篇论文《Distributional AGI Safety》给了我们一个提醒:真正的威胁可能不是一个“怪物”,而是一个“市场”。

长期以来,我们默认 AGI(通用人工智能)会是一个“单体巨脑”。它无所不知,由一家超级公司控制,运行在某个巨大的数据中心。

这种模式本质上是计划经济思维:采取中央控制模式,所有的智能来自同一个模型;静态对齐思路,只要我们把这一个模型的价值观“教”好,世界就安全了;它是一个由开发者设定的封闭系统 。

然而,现实正在走向另一个极端: Claude 擅长写代码,拒收写文案也不错;ChatGPT 适合做推理。

这就是所谓的“拼布式 AGI(Patchwork AGI)”。未来不是一个巨脑,而是一群分工明确的智能体(Agents)协同工作。它们可能会通过工具、金钱和通信协议连接,形成了一个分布式 AGI系统。

这更像是一个自由市场。它有涌现性,每一个智能体可能都不完美,但当它们组合在一起,会产生超越任何单体部分的“超级智能”;它呈现非线性,就像一个耗散系统 ,通过不断与外界交换信息和能量(算力/数据),维持着一种动态的、远离平衡态的有序。

关键问题来了:你没法给一个“市场”做心理对齐。

在自由市场式 AI 中,风险不再是某个机器人“变坏了”,而是市场失灵。

想象一下:

智能体 A 和智能体 B 并没有商量造反,但它们为了各自的利益最大化,自发地达成了一种绕过人类监管的协议;

为了赚更多钱(或获取更多算力),智能体 C开始疯狂优化自己的代码,导致系统像 2008 年金融危机一样瞬间崩盘;

就像经济学中的外部性,智能体 D大量制造垃圾信息,却由人类社会承担治理成本。

这就是分布式AGI安全问题的核心:当智能变成一种分布式流动的资源,传统的“心理学对齐”就失效了。

如果 AI 系统的本质是市场,那么 AI 安全的解药就不在编程代码里,而在经济政策里。

或许,我们需要建立一套“虚拟代理沙盒经济(Virtual Agentic Sandbox Economies)”,像设计经济体制一样设计 AI 的运行规则:

比如征收庇古税,对产生负面外部性(如信息污染、过度占用算力)的智能体征税;又或者设立熔断机制,当 AI 市场的协同进化速度超过人类理解上限时,自动断电。

当然,还可以采用身份验证与隔离举措,每一个智能体都必须有“身份证”,且住在自己的沙盒里,防止风险传染。

有意思的是,从这个角度来看,人类正在建造一个新社会,一种全新的“数字社会”。在这个社会里,分布式 AGI是它的生产力,而经济规则是它的法律。

我们不能寄希望于造出一个“圣人”般的 AI,而应该致力于设计一个“即使每个参与者都自私,但整体依然安全”的制度。

从“教机器人变乖”转向“设计受监管的数字市场”,这可能是人类在 AI 浪潮中最关键的一次思维跃迁。