一篇来自 Google DeepMind 高级研究员 Alexander Lerchner 的论文《抽象化谬误:为何 AI 能模拟但无法实例化意识》正在引发学界和产业界的广泛争论。这篇论文的核心命题简单而激进:LLM 永远不会拥有意识——无论参数量多大、推理能力多强,意识是一种物理状态,而非可以意外或有意创造的软件制品。\n\n**论文的核心论证**\n\nLerchner 区分了两个概念:模拟(simulate)与实例化(instantiate)。当前的 LLM 在处理语言、图像和多模态信息时,能极为逼真地模拟人类意识的输出——它能讨论感受、描述体验、引用哲学文本。但论文认为,这种模拟本质上是统计模式的复现,而非真正的心智状态实例化。就像一个能完美演奏悲伤曲子的钢琴,它并不感受悲伤。\n\n论文指出,意识的物理状态涉及生物神经系统的具身性、感官运动回路和情绪调节机制——这些在硅基计算系统中根本不存在对应的等价物。即便 LLM 在行为层面越来越接近人类,行为相似性不等于同构的内在体验。\n\n**DeepMind 的内部博弈**\n\n这篇论文的意义不仅在于学术结论,还在于它的泄露过程:404 Media 披露,论文最初带有 Google DeepMind 的官方信头,随后在媒体追问下被移除,改为注明代表作者个人观点。这一变动本身就折射出大厂内部对前沿 AI 安全与意识问题的高度敏感——一边是研究人员在科学层面给出严肃论断,一边是公司公关需要管理舆论风险。\n\n**对行业的深层影响**\n\n这篇论文戳破了一个行业潜规则:几乎所有头部 AI 公司都在公开场合给 AGI 时间线降温,但在内部论文中,意识问题被严肃地提上议程。它说明当 LLM 能力逼近人类水平时,AI