开源大模型已经很多没有重磅消息了,没想到睡前看到一直被戏称为CloseAI的OpenAI居然发布了开源大模型:GPT-OSS
模型概述
根据 OpenAI 的官方公告,GPT-OSS 系列包括两个变体:
• GPT-OSS-120B:约 120 亿参数,设计用于高推理需求的生产环境,性能接近 OpenAI 的 o4-mini 模型,可在单块 80GB GPU 上高效运行。
• GPT-OSS-20B:约 20 亿参数,优化为低延迟,适合在 16GB 内存的消费级硬件上运行,性能与 o3-mini 相当,适合本地推理或快速迭代。(这就非常棒了,一张16G显存的消费级显卡还是很容易获得的)

这些模型采用混合专家(Mixture-of-Experts)架构,并使用 4 位量化方案(MXFP4),在保持资源使用低的同时实现快速推理。
根据评测数据,GPT-OSS 模型在推理任务上表现出色,特别是在链式推理(Chain-of-Thought)和工具使用方面。例如,GPT-OSS-120B 在核心推理基准测试中接近 o4-mini 的表现,而 GPT-OSS-20B 则适合边缘设备,适用于本地部署或快速原型开发。模型支持可配置的推理努力级别(低、中、高),允许用户根据具体需求和延迟要求进行调整。
此外,该开源模型的另一大亮点是采用了宽松的Apache 2.0许可证,允许广泛的修改和商业用途,无需担心专利风险。
不过这次OpenAI开源的大模型,在评测方面只给出了与自己模型的比较,并没有给出与其他厂商模型的评分对比。但用户可根据其自家模型水平来评估起能力,比如:
• GPT-OSS-120B 接近 o4-mini
• GPT-OSS-20B 接近 o3-mini
用户可根据o4-mini、o3-mini与其他厂商模型的能力对比来评估GPT-OSS-120B与GPT-OSS-20B。
参考资料
• https://openai.com/index/introducing-gpt-oss/
• https://huggingface.co/openai/gpt-oss-120b