Anthropic 上月高调发布 Mythos Preview,宣称这是一款对网络安全构成独特威胁的前沿模型,并限制了访问权限。然而独立安全研究机构 AI Safety Institute(AISI)本周发布的测评显示,GPT-5.5 在同一套网络安全测试中表现几乎与 Mythos 持平,差异在统计误差范围内。这一结果直接挑战了 Anthropic 的核心叙事。AISI 报告指出,Mythos 所谓的独特网络安全威胁很可能并非模型特有,而是长时域自主、推理与编码等通用能力提升的副产品——换言之,Anthropic 将行业整体进步包装成了自家产品的独有能力。讽刺的是,OpenAI CEO Sam Altman 近日在播客访谈中直言不讳地批评了这种手法:这显然是一种绝佳的营销策略——我们造了一颗炸弹,马上要扔到你头上,你来买防空洞吧,1亿美元。他表示,未来会有更多公司以太危险无法发布为由进行营销,同时那些真正危险的模型会以不同方式推出。从技术角度看,这一事件折射出网络安全模型领域的一个核心问题:当模型能力普遍提升时,如何定义独特威胁?benchmark 的设计是否足以区分真实的能力差距,还是只是放大了厂商的营销叙事?对于行业而言,AISI 的独立测评机制显得愈发重要。当厂商既是运动员又是裁判时,市场需要第三方机构提供客观参照——这次测评证明了 GPT-5.5 并不逊色,但更重要的是,它揭开了一层行业惯例的底裤:先把模型吹上天,再以安全为由限制访问,最后由市场来验证真相。