不论你是独立开发者、企业还是研究机构,现在都可以免费拥有一款与 GPT-4o 接近实力的语言模型。
开源但不“阉割”:媲美 GPT-4o,运行成本极低
OpenAI 在这次发布中非常有诚意:
- gpt-oss-120b:在核心推理任务上已接近 GPT-4o-mini,支持 128k 上下文,单卡 80GB GPU 可跑。
- gpt-oss-20b:性能对标 GPT-3.5(o3-mini),仅需 16GB 显存,可部署于消费级设备、本地推理、离线使用等场景。
它们在以下任务中表现优异:
- Chain-of-Thought(CoT)推理
- 工具使用(如 Web 搜索、代码执行)
- 医疗问答(在 HealthBench 上甚至超过 GPT-4o)
- 数学与编码任务(胜过 o3-mini)
适用于本地部署与个性化定制
相比闭源模型,gpt-oss 的一大亮点是:
- 权重完全开放(支持 Hugging Face 下载)
- 支持推理量化(MXFP4),大幅降低运行门槛
- 提供 Harmony 格式工具链,支持 Python / Rust 渲染器
- 官方支持 Apple Metal、PyTorch、ONNX、VS Code 工具包
安全性不打折:对抗性微调也扛得住
OpenAI 对安全的投入一如既往:
- 预训练阶段剔除了危险内容(CBRN 等)
- 微调阶段采用了 deliberative alignment 技术
- 评估阶段进行了“恶意微调攻击模拟”,测试模型是否容易被改造成高危能力体
结论是:即使在攻击者“最大努力”的前提下,这些模型仍未展现出高风险能力。
此外,OpenAI 启动了 50 万美元的 红队挑战赛(Red Teaming Challenge),鼓励全球开发者参与模型安全性测试,推动整个开源生态的安全进步。
技术细节亮点:MoE 架构 + 大上下文 + 灵活推理
gpt-oss 系列采用了先进的 Transformer 架构,并引入以下关键技术:
模型 | 层数 | 总参数 | 每 Token 激活参数 | 上下文长度 |
gpt-oss-120b | 36 | 117B | 5.1B | 128k |
gpt-oss-20b | 24 | 21B | 3.6B | 128k |
技术要点:
- MoE(Mixture-of-Experts)架构:降低推理时活跃参数,提高效率
- 支持 Grouped Multi-Query Attention,RoPE 位置编码
- 使用全新 o200k_harmony 分词器(今日也一同开源)
- 推理可设置不同“努力等级”:低延迟 vs 高准确灵活切换
为什么这次发布意义重大?
OpenAI 这次发布的 gpt-oss 系列,具有以下历史性意义:
- 打破壁垒:为中小型开发者、教育机构、非营利组织提供强大工具。
- 推动安全研究:开放非监督 CoT,支持更多“可解释性”、“思维链监控”等研究方向。
- 补齐生态拼图:API 模型 + 本地开源模型并行发展,满足不同场景选择。
- 降低 AI 不平等:开源模型的普及有助于民主化 AI 发展,尤其是在资源受限地区。
怎么用?
gpt-oss 模型现已开放:
- 下载地址:https://huggingface.co/openai/gpt-oss-120b
- 官方支持平台:Azure、AWS、vLLM、Ollama、LM Studio、Cloudflare 等
- 本地运行参考项目:PyTorch、Metal、Harmony Renderer、量化模型等
写在最后
gpt-oss 不仅是一套开源大模型,更是 OpenAI 向整个 AI 开源社区发出的诚意之作。它代表了高性能、安全、易用三者的结合,也让“每个人都能拥有自己的 GPT”成为现实。
我们正站在 AI 开源生态的重要转折点上。现在,是时候将这项技术真正握在自己手中。
参考资料
- https://openai.com/index/introducing-gpt-oss/
- https://huggingface.co/openai/gpt-oss-120b