2019年,OpenAI发布GPT-2之后就彻底关上了开源的大门。七年后,这家公司做了一件几乎没人预料到的事——发布开源权重模型。 GPT-OSS 120B于2026年4月正式亮相,包含gpt-oss-120b和gpt-oss-20b两个版本,全部采用Apache 2.0许可证,可自由下载、商业使用、修改和再分发。这不仅是OpenAI自GPT-2以来首次开源模型,更是其首次真正意义上进入开源权重模型的竞争格局。 技术架构上,GPT-OSS 120B采用了改进的MoE(混合专家)架构。1170亿参数总量中,每次前向传播仅激活约390亿参数,这一设计使模型能在单张80GB显存的GPU上通过INT4量化运行。相比之下,GLM-5.1需要4张H200才能运行,DeepSeek V4则需要8张GPU。在硬件成本上,GPT-OSS 120B的部署门槛是三款顶级开源模型中最低的。 另一个差异化亮点是链式思维(CoT)的完全可视化。GPT-OSS 120B提供了三个推理档位——快速、平衡、深度,用户可以实时观察模型的完整推理过程,并精细控制推理深度。这种透明度在开源模型中前所未有。 基准测试方面,GPT-OSS 120B在编程和数学任务上与GPT-4o相当,并超越参数量为其三倍的Llama 3.1 405B。但受限于Apache 2.0许可证的月活7亿门槛条款,其商业应用存在一定限制。 OpenAI的入局打破了原本Meta、阿里、DeepSeek三方竞争的开源格局。GPT-OSS 120B的真正意义不在于性能全面超越,而在于它改变了游戏规则:单卡部署顶级模型的能力,将AI推理的硬件门槛从集群级降低到了单卡级别。