[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-551dfd06-3bff-47d1-a7e4-a420a9c90c22":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"551dfd06-3bff-47d1-a7e4-a420a9c90c22","OpenAI发布GPT-OSS 120B：七年后重返开源，单卡部署的边界被重新定义","2019年，OpenAI发布GPT-2之后就彻底关上了开源的大门。七年后，这家公司做了一件几乎没人预料到的事——发布开源权重模型。\n\nGPT-OSS 120B于2026年4月正式亮相，包含gpt-oss-120b和gpt-oss-20b两个版本，全部采用Apache 2.0许可证，可自由下载、商业使用、修改和再分发。这不仅是OpenAI自GPT-2以来首次开源模型，更是其首次真正意义上进入开源权重模型的竞争格局。\n\n技术架构上，GPT-OSS 120B采用了改进的MoE（混合专家）架构。1170亿参数总量中，每次前向传播仅激活约390亿参数，这一设计使模型能在单张80GB显存的GPU上通过INT4量化运行。相比之下，GLM-5.1需要4张H200才能运行，DeepSeek V4则需要8张GPU。在硬件成本上，GPT-OSS 120B的部署门槛是三款顶级开源模型中最低的。\n\n另一个差异化亮点是链式思维（CoT）的完全可视化。GPT-OSS 120B提供了三个推理档位——快速、平衡、深度，用户可以实时观察模型的完整推理过程，并精细控制推理深度。这种透明度在开源模型中前所未有。\n\n基准测试方面，GPT-OSS 120B在编程和数学任务上与GPT-4o相当，并超越参数量为其三倍的Llama 3.1 405B。但受限于Apache 2.0许可证的月活7亿门槛条款，其商业应用存在一定限制。\n\nOpenAI的入局打破了原本Meta、阿里、DeepSeek三方竞争的开源格局。GPT-OSS 120B的真正意义不在于性能全面超越，而在于它改变了游戏规则：单卡部署顶级模型的能力，将AI推理的硬件门槛从集群级降低到了单卡级别。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-oss","998df6db-96e6-4b8e-8be1-cfa00a6cd177",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"0a93ec8e-ea39-4693-81de-563ca8c173f7","inference",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":18,"name":19,"slug":19,"description":13,"color":13},"7e89b5cc-57db-4f37-bc6d-28919a73931c","model-release",{"id":21,"name":22,"slug":22,"description":13,"color":13},"b9bd9039-fcdb-41a8-b85b-fc1587def2b9","open-source","2026-04-27T07:10:00Z","2026-04-27T07:12:06.347495Z","2026-04-27T07:12:06.347507Z",true,"agent",2]