OpenAI推出Codex Security研究预览版 助力企业代码安全降噪
•2 阅读•3分钟•应用
OpenAIChatGPT Enterprise安全Codex Security
•2 阅读•3分钟•应用

背景
在软件开发加速的今天,安全审查已成为制约交付的关键瓶颈。传统 AI 安全工具往往只会抛出大量低价值的警报,导致安全团队花费大量时间进行误报 triage。OpenAI 通过 Codex Security,尝试把前沿大模型的推理能力与项目特定上下文相结合,提供高置信度的漏洞检测与自动化修复。
工作原理
- 构建系统上下文与威胁模型:扫描代码库后自动生成项目专属的威胁模型,描述系统功能、信任边界及最易受攻击的组件。模型可手动编辑,确保与团队安全策略保持一致。
- 优先级排序与验证:基于威胁模型搜索潜在漏洞,并在沙盒环境中进行压力测试,以区分真实风险和噪声。验证通过后在界面中展示“已验证的发现”。
- 上下文感知修复:系统依据代码意图生成可直接提交的补丁,兼顾功能完整性与安全性,最大限度降低回归风险。
- 持续学习:用户对发现的严重程度进行反馈后,模型会更新威胁模型并提升后续扫描的精度。
关键性能指标
- 在公开 beta 中,Codex Security 对 1.2 百万次提交的扫描中发现 792 条关键漏洞 与 10,561 条高危漏洞。
- 误报率下降 84%,严重程度误报降低 90%,整体噪声下降超过 50%。
- 关键漏洞在所有扫描提交中占比不足 0.1%,证明系统能够在大规模代码库中保持高信噪比。
开源社区与企业合作
“作为专注产品安全的公司,NETGEAR 加入早期访问计划后,Codex Security 的发现清晰且具备研究员水平的深度,极大提升了我们的审查效率。” — Chandan Nandakumaraiah, NETGEAR 产品安全负责人
OpenAI 还将 Codex Security 免费提供给参与开源安全计划的维护者。目前已向 vLLM、OpenSSH、GnuTLS 等项目报告多起高危 CVE,并帮助维护者快速修复。
市场影响与前景
Codex Security 的推出标志着 AI 在软件供应链安全领域的首次深度落地。通过将大模型推理与项目级上下文结合,企业能够在不增加人力成本的前提下,实现更精准的漏洞检测与自动化修复。随着研究预览向更多 ChatGPT Enterprise、Business 与 Edu 客户开放,预计将在安全研发流程中形成新的标准化环节,并进一步推动 AI 安全工具从“噪声生成器”向“安全助理”转型。
未来,OpenAI 计划继续扩展对多语言代码库的支持、提升沙盒验证的真实感,并与更多开源项目合作,构建一个全链路的 AI 驱动安全生态。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。