OpenAI内部辩论报警 加拿大学校枪手的ChatGPT对话被监控
•28 阅读•3分钟•视野
ChatGPTOpenAI内容安全Royal Canadian Mounted Police
Tim Fernholz••28 阅读•3分钟•视野

事件概述
2026年2月21日,TechCrunch援引《华尔街日报》报道,OpenAI内部曾就是否向加拿大皇家骑警(Royal Canadian Mounted Police)报告一名涉嫌枪击案的聊天记录展开激烈讨论。该名18岁嫌疑人Jesse Van Rootselaar在ChatGPT中描述了大量枪支暴力细节,随后被公司安全工具检测并在2025年6月被封禁。
关键时间线
- 2025年6月:OpenAI的滥用监测系统自动标记Van Rootselaar的对话,并对其账户实施禁令。
- 2026年2月:OpenAI内部安全团队就是否向警方通报展开内部邮件讨论。
- 2026年2月21日:OpenAI对外声明未满足向执法机构报告的标准,但已主动向皇家骑警提供相关信息,表示将继续配合调查。
OpenAI的内部考量
OpenAI在声明中指出,决定是否报告需满足以下两点:
- 行为是否构成直接的、即将发生的犯罪威胁;
- 是否有明确的法律义务要求公司披露。内部邮件显示,部分团队成员认为用户已实施多起暴力计划,主张立即报警;另一部分则担忧过度披露可能侵犯用户隐私并设立不当先例。
法律与行业影响
此事再次把AI内容安全推向公众视野。监管机构正加紧制定针对生成式AI的使用规范,要求平台在检测到潜在暴力或自杀倾向时采取更主动的报告措施。行业内的竞争对手如Anthropic、Google也面临同类压力,正在完善内部审计与风险评估流程。
业界观察
- 风险管理升级:多家AI公司已宣布将在模型输出层加入更严格的安全阈值,提升对极端言论的拦截率。
- 隐私争议:隐私组织警告,过度向执法部门报告可能导致用户对AI的信任下降,呼吁制定透明的报告标准。
- 监管趋势:美国国会与欧盟议员正推动《AI安全法案》,要求平台在发现危害公共安全的内容时必须在24小时内上报。
“我们对Tumbler Ridge悲剧的受害者表示深切哀悼。OpenAI已向皇家骑警提供了相关信息,并将继续支持调查。”——OpenAI官方声明
展望
随着生成式AI的普及,平台与监管机构之间的协作机制将成为衡量行业成熟度的关键指标。如何在保障用户隐私的同时,及时阻断潜在危害,是未来AI治理的核心挑战。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。