大模型能力增长的天花板在哪里?DeepMind CEO Demis Hassabis近日在20VC播客访谈中给出了明确判断:Scaling laws远未触顶,但纯粹靠算力堆砌已难以跨越下一个鸿沟——算法创新才是2026年真正的加速器。 Hassabis指出,当前大模型的核心瓶颈并非算力,而是架构与算法:缺乏一致性、长期可靠性和类人的适应能力。他将持续学习(Continual Learning)、层次化记忆(Hierarchical Memory)和世界模型(World Models)列为通向AGI必经的三项关键突破,并透露DeepMind约一半资源正投入这些"蓝天算法"方向。 这一判断与行业共识正在收敛。OpenAI的o1推理链、蒙特卡洛树搜索与LLM的混合架构,正在证明推理时计算(Inference-time Compute)比单纯扩展预训练数据更有效。Anthropic、Google和Meta均已跟进,在测试时让模型"思考更久"而非"训练更大"。 Hassabis预测,2026年将是可靠世界模型的突破年份。Google DeepMind的Genie 3.0预计将实现数分钟级别的交互式3D环境生成,实时物理仿真用于训练具身AI。Nested Learning/Titans风格的分层记忆正成为Agent框架的标配,解决模型跨session的长期记忆问题。 值得注意的技术趋势是,多个实验室正在将世界模型与持续学习结合——模型不再需要全量重训练就能从新经验中学习,这解决了传统Transformer的"灾难性遗忘"问题。对于需要长期运行、持续适应的Agent应用,这是关键的基础设施级突破。 AI能力边界正在从"语言模型规模"转向"记忆与推理架构深度"。2026年,谁能在世界模型和持续学习上率先产品化,谁就可能在Agent时代占据先机。