OpenAI GPT-5.5 驱动 Codex 在 NVIDIA GB200 基础设施上运行,内部应用成效显著
2026/04/24 02:57阅读量 4
OpenAI 最新前沿模型 GPT-5.5 已部署于 NVIDIA GB200 NVL72 系统以驱动其代理式编码应用 Codex。超过 10,000 名 NVIDIA 员工已使用该工具,实现了调试周期从数天缩短至数小时、实验进度从数周加速至 overnight 的显著效率提升。该部署基于双方长达十年的全栈合作,并采用了零数据保留策略及专用云虚拟机以确保企业级安全与审计能力。
事件概述
OpenAI 的最新前沿模型 GPT-5.5 现已作为核心驱动力,支撑其代理式编码应用 Codex 在 NVIDIA GB200 NVL72 机架级系统上运行。这一技术组合标志着 AI 代理从开发者工作流向知识处理领域的进一步拓展,能够高效处理信息、解决复杂问题并推动创新。
核心性能与经济效益
- 硬件基础:应用运行于 GB200 NVL72 系统,该系统相比前代架构展现出显著优势:
- 每百万 token 的处理成本降低 35 倍。
- 每兆瓦功耗下的 token 输出速率提升 50 倍。
- 这种经济性与能效表现使得前沿模型的推理在企业规模下成为可行方案。
- 效率提升实测:
- 调试周期:原本需要数天的调试工作现在可在数小时内完成。
- 实验迭代:涉及多文件代码库的复杂实验,从过去需数周的周期缩短为隔夜即可取得进展。
- 功能交付:团队能够通过自然语言提示直接生成端到端功能,且可靠性更强,无效循环更少。
企业内部应用现状
截至报道发布时,已有超过 10,000 名 NVIDIA 员工(涵盖工程、产品、法务、市场、财务、销售、HR、运营及开发者项目等部门)开始使用基于 GPT-5.5 的 Codex。
- 用户反馈:员工普遍反馈结果令人“震惊”甚至“改变生活”。
- CEO 号召:NVIDIA 创始人兼 CEO Jensen Huang 在公司全员邮件中鼓励全员采用 Codex,称其为“光速时代”的到来。
企业级安全部署架构
为确保在受控的企业环境中无缝运行,Codex 的部署采用了以下安全机制:
- 专用计算环境:每位员工拥有独立的云虚拟机(VM),通过远程 SSH 连接运行 Agent,确保 Agent 能访问真实公司数据而不暴露给外部。
- 零数据保留策略:部署遵循零数据保留原则,保障数据隐私。
- 权限控制:Agent 通过命令行界面和 Skills(NVIDIA 自动化工作流使用的同一套代理工具包)访问生产系统,仅拥有只读权限。
- 可审计性:提供专用的沙箱环境,支持完整的操作审计与监控。
长期合作背景
此次 GPT-5.5 的发布与 Codex 的推广是 NVIDIA 与 OpenAI 超过十年全栈合作的成果:
- 合作起源:始于 2016 年,Jensen Huang 亲自将首台 DGX-1 AI 超级计算机交付给 OpenAI。
- 深度协同:
- NVIDIA 是 OpenAI gpt-oss 开源权重模型发布的 Day-zero 合作伙伴,针对 TensorRT-LLM、vLLM 和 Ollama 等框架进行了优化。
- OpenAI 承诺为其下一代 AI 基础设施部署超过 10 GW 的 NVIDIA 系统,奠定未来多年训练与推理的基础。
- 双方作为早期硅片与联合设计合作伙伴,OpenAI 的反馈直接影响了 NVIDIA 的硬件路线图,而 NVIDIA 则提供新架构的早期访问权。
- 里程碑成就:双方共同完成了首个 GB200 NVL72 10 万 GPU 集群 的上线,该集群完成了多次大规模训练任务,并在前沿规模下树立了系统级可靠性的新基准。
