OpenAI推出ChatGPT锁定模式并标注高风险功能,强化企业数据防护
•36 阅读•3分钟•视野
ChatGPTOpenAILockdown ModeElevated Risk
•36 阅读•3分钟•视野

背景与安全挑战
随着ChatGPT等大模型被广泛嵌入企业内部系统、浏览器插件和代码助手,提示注入(prompt injection)和基于网络的敏感数据泄露风险显著上升。OpenAI透露,已有多起攻击利用模型的外部工具访问功能获取企业机密。
锁定模式(Lockdown Mode)概述
- 目标用户:企业高管、信息安全团队等对数据安全要求极高的角色,默认对大多数用户关闭。
- 核心机制:在锁定模式下,ChatGPT的网络浏览仅限于缓存内容,不会发起实时网络请求;文件上传、代码执行等高危工具被强制禁用或仅在管理员预先授权的范围内可用。
- 确定性保障:所有受限功能均实现可预测的行为,避免模型因恶意提示而向外部发送信息。
高风险标签(Elevated Risk)机制
OpenAI在ChatGPT、ChatGPT Atlas 以及 Codex 中统一使用“Elevated Risk”标识,提醒用户该功能可能带来额外风险。示例包括:
- 网络访问:Codex 允许搜索文档时会出现“Elevated Risk”提示,用户需手动确认。
- 插件调用:在 ChatGPT 中使用第三方插件执行操作时,同样标注风险并提供风险说明。
标签配合简明的风险说明,帮助用户在使用前评估必要性。
企业部署与管理
- 管理员控制:企业可在 Workspace Settings 中创建专属角色,开启或关闭锁定模式,并细粒度指定哪些插件及其具体操作可在该模式下使用。
- 审计日志:配套的 Compliance API Logs 平台记录所有应用调用、数据共享路径,便于安全团队进行事后审计。
- 适用范围:ChatGPT Enterprise、ChatGPT Edu、ChatGPT for Healthcare、ChatGPT for Teachers 均已内置该功能,计划在未来数月向普通消费者推出。
未来展望
OpenAI 表示,锁定模式和高风险标签是其安全体系的第一阶段。后续将持续迭代,随着防护技术成熟,相关标签有望被移除,届时普通用户也能在更安全的环境下使用完整功能。
“安全不是一次性功能,而是持续投入的过程。” — OpenAI 安全团队
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。