OpenAI推出Codex Security研发预览 助力代码安全上下文感知检测与自动修复

0 阅读2分钟应用

背景与动机

随着 AI 辅助开发加速代码交付,传统安全扫描工具因误报率高、缺乏系统上下文而难以满足企业需求。OpenAI 在其产品公告中指出,安全漏洞的真实危害往往取决于具体的架构和信任边界,而非单纯的模式匹配。因此,OpenAI 将安全审查视作对代码库结构、运行假设和信任边界的推理任务,推出 Codex Security 作为“上下文感知的安全代理”。

工作原理三阶段

  1. 项目威胁模型构建
    • 自动分析代码库,生成可编辑的威胁模型,描述系统功能、信任入口与潜在暴露面。
    • 团队可自行补充组织特有假设,确保模型贴合实际部署。
  2. 漏洞发现与验证
    • 基于威胁模型检索潜在缺陷,并在沙盒环境中进行可行性验证,生成可执行的 PoC(若可用)。
    • 通过实机验证降低误报,使安全团队能够依据真实可利用性进行优先级排序。
  3. 上下文感知的修复建议
    • 系统利用完整的项目上下文生成补丁,兼顾安全性与功能回归风险。
    • 用户反馈(如调整漏洞严重度)会被用于迭代威胁模型,提升后续扫描精度。

Beta 结果概览

  • 在 30 天内扫描 1.2 百万次提交,共发现 792 条关键10,561 条高危 漏洞。
  • 单次噪声下降 84%(最优案例),误报率降低 >50%,严重度过度报告下降 >90%
  • 关键漏洞在全部提交中出现比例 <0.1%,显示系统更倾向于高置信度发现。

开源协作与 CVE 报告

OpenAI 同时推出了 Codex for OSS 项目,为符合条件的开源维护者提供 6 个月 ChatGPT Pro、Codex 使用权限及 API 额度。通过该渠道,OpenAI 已在 OpenSSH、GnuTLS、Chromium 等项目中上报 14 项 CVE(其中 2 项双报),展示了其在真实开源生态的安全价值。

行业影响与展望

Codex Security 的出现标志着应用安全工具从“模式匹配”向“系统推理”转型。若验证流程如预期运行,企业将能够在更短的时间内获得可操作的修复建议,显著降低安全 triage 成本。未来,OpenAI 计划将该能力扩展至更广泛的语言与平台,并进一步开放 API,帮助第三方安全平台构建基于上下文的安全工作流。

“安全审查不应只是找出潜在风险,更应提供可执行的修复路径。” — OpenAI 产品团队


Codex Security 现已在 ChatGPT Enterprise、Business、Edu 客户的 Codex Web 中免费试用一个月,感兴趣的企业可前往 OpenAI 官方页面登记。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。