2025 年 8 月 6 日,OpenAI 正式发布两款开放权重语言模型 gpt-oss-120b 与 gpt-oss-20b,并将全部参数在 Hugging Face、Databricks、Azure 及 AWS 同步开放下载,许可证为 Apache 2.0。这是自 2019 年 GPT-2 以来,OpenAI 首次对外开放大型模型权重。官方在新闻通稿与媒体连线中强调,新系列「在同级别开放模型中表现最佳」,CEO Sam Altman 更在邮件声明里称其为「数十亿美元研究投入的结晶,目标是让全球开发者都能用上最强大的开放模型」。
OpenAI 此次一次性放出两种规模:117 B 参数的 gpt-oss-120b 与 21 B 参数的 gpt-oss-20b。前者在单张 80 GB GPU 上即可推理,后者则能在配备 16 GB 记忆体的笔电上运行,均允许商业化再分发,彻底打破以往闭源 API 的技术壁垒。
自 2019 年因「安全顾虑」停止开源后,OpenAI 一直饱受社群质疑;如今重新开放,既回应了 Altman 年初「曾站错队」的自省,也被视作对 DeepSeek、Qwen、Llama 等竞争对手连番开源的战略回击。
与 GPT-4o 相比,gpt-oss-120b 和 gpt-oss-20b 最大的变化在于「开放部署」——所有权重与推理程式码皆以 Apache 2.0 许可证公开,企业可将模型完整下载到本地 GPU 丛集或私有云,离线运行、微调并接入自有工具链。而 GPT-4o 依旧维持「伺服器托管」模式,开发者只能透过 OpenAI 的 API 远端调用,无法触碰底层参数。
简而言之,gpt-oss 系列让你可以把模型带回家;GPT-4o 仍须倚赖 OpenAI 的后端才能发挥全部威力。
此次发布意味著「闭源 API + 开放权重」的双轨策略正式成形:企业可在本地离线部署或私有化微调核心流程,将敏感资料留在自有算力中,再按需调用 OpenAI 高阶 API 处理更复杂任务;中小开发者也能以零成本试水 AI 应用,缩短从创意到产品的迭代周期。
与此同时,Apache 2.0 许可证降低了商业门槛,可望引发二次微调、行业垂直版及硬体适配优化的连锁创新。但开放亦伴随更严峻的滥用与监管挑战:如何在全球范围内统一安全基线、如何防范模型被恶意精调,将考验 OpenAI 与政策制定者的协调能力。
