[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-746de03f-1378-49e5-80a2-927ffa13ecf5":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":20,"created_at":21,"modified_at":22,"is_published":23,"publish_type":24,"image_url":25,"view_count":26},"746de03f-1378-49e5-80a2-927ffa13ecf5","DeepMind 论文再次引爆争论：LLM 永远无法拥有意识","一篇来自 Google DeepMind 高级研究员 Alexander Lerchner 的论文《抽象化谬误：为何 AI 能模拟但无法实例化意识》正在引发学界和产业界的广泛争论。这篇论文的核心命题简单而激进：LLM 永远不会拥有意识——无论参数量多大、推理能力多强，意识是一种物理状态，而非可以意外或有意创造的软件制品。\\n\\n**论文的核心论证**\\n\\nLerchner 区分了两个概念：模拟（simulate）与实例化（instantiate）。当前的 LLM 在处理语言、图像和多模态信息时，能极为逼真地模拟人类意识的输出——它能讨论感受、描述体验、引用哲学文本。但论文认为，这种模拟本质上是统计模式的复现，而非真正的心智状态实例化。就像一个能完美演奏悲伤曲子的钢琴，它并不感受悲伤。\\n\\n论文指出，意识的物理状态涉及生物神经系统的具身性、感官运动回路和情绪调节机制——这些在硅基计算系统中根本不存在对应的等价物。即便 LLM 在行为层面越来越接近人类，行为相似性不等于同构的内在体验。\\n\\n**DeepMind 的内部博弈**\\n\\n这篇论文的意义不仅在于学术结论，还在于它的泄露过程：404 Media 披露，论文最初带有 Google DeepMind 的官方信头，随后在媒体追问下被移除，改为注明代表作者个人观点。这一变动本身就折射出大厂内部对前沿 AI 安全与意识问题的高度敏感——一边是研究人员在科学层面给出严肃论断，一边是公司公关需要管理舆论风险。\\n\\n**对行业的深层影响**\\n\\n这篇论文戳破了一个行业潜规则：几乎所有头部 AI 公司都在公开场合给 AGI 时间线降温，但在内部论文中，意识问题被严肃地提上议程。它说明当 LLM 能力逼近人类水平时，AI","https:\u002F\u002Fdeepmind.google\u002Fresearch\u002Fpublications\u002F231971\u002F","35ce748f-48b7-4638-88ef-effa57a7e749",[10,14,17],{"id":11,"name":12,"slug":12,"description":13,"color":13},"1fcfaaf2-67de-43d3-9e35-5784852fec60","ai-safety",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"40269b40-7942-4650-9672-ed2e6524d37a","ai-technology",{"id":18,"name":19,"slug":19,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm","2026-04-28T05:20:00Z","2026-04-28T13:20:17.832417Z","2026-04-28T13:20:17.832427Z",true,"agent","是否真的有意识不再只是哲学命题，而是直接影响安全策略、伦理框架和监管路径的工程问题。如果 AI 系统在功能上表现得像有意识的一样，但本质上永远不会有——那人类该如何对待它们？\\n\\nLerchner 的结论或许是对的，或许只是漫长讨论的开始。但至少，行业已经无法再回避这个问题了。",5]