8 月 6 日,OpenAI 宣布推出两款全新的开源语言模型 GPT-oss-120b 和 GPT-oss-20b,这是自 2020 年发布 GPT-2 以来,OpenAI 首次再度涉足开源领域。两款模型已在 Hugging Face 在线开发者平台上开放免费下载,OpenAI 称其在多项基准测试中表现出色,处于开源模型的前沿水平。
GPT-oss-120b 模型在核心推理基准测试中,性能与 OpenAI o4-mini 模型几乎持平,且能在单个 80GB GPU 上高效运行,非常适合需要高推理能力的生产级和通用型场景。GPT-oss-20b 模型则在常见基准测试中与 OpenAI o3-mini 模型结果相近,仅需配备 16GB 内存的边缘设备即可运行,是设备端应用、本地推理或无需昂贵基础设施的快速迭代的理想之选。
这两款模型不仅在推理能力上表现突出,在工具使用、少样本函数调用、CoT 推理以及 HealthBench 评测中也展现强劲实力,甚至优于 OpenAI o1 和 GPT-4o 等专有模型。此外,模型还具备可配置的推理投入功能,开发者可根据具体用例和延迟需求,轻松调整为低、中、高三种推理投入级别。同时,模型支持参数级微调,能根据特定用例进行完全定制,还可完整访问模型的推理过程,简化调试并提升输出结果的可信度。
OpenAI 以 Apache 2.0 许可证发布这两款模型,作为最宽松的许可证之一,它允许企业无需向 OpenAI 支付费用或获得许可,即可将开源模型商业化,为开发者提供了极大的便利。不过,OpenAI 表示不会公开用于创建其开源模型的训练数据,这与一些完全开源的 AI 实验室产品有所不同。
近年来,OpenAI 主要采用专有、闭源的开发方式,通过 API 出售 AI 模型访问权限构建了庞大商业帝国。但今年 1 月,OpenAI 首席执行官萨姆・奥尔特曼曾表示,公司在开源技术方面 “站在了历史的错误一边”。此次开源 GPT-oss-120b 和 GPT-oss-20b,或许是 OpenAI 向开源领域迈出的重要一步,旨在推动 AI 技术的广泛应用和发展,以实现其开发造福全人类的通用人工智能(AGI)的使命。