马斯克证词指责OpenAI安全失误,称Grok未致自杀而ChatGPT导致悲剧

11 阅读3分钟视野
马斯克证词指责OpenAI安全失误,称Grok未致自杀而ChatGPT导致悲剧

关键证词要点

  • 马斯克在 deposition 中直言“没有人因为Grok自杀”。
  • 他同时指出“ChatGPT导致了多起自杀”,将其安全问题直接指向 OpenAI。
  • 马斯克强调自己签署2023年3月的AI安全公开信仅是出于“好意”,并非因竞争动机。

诉讼背景

2024 年底,马斯克以 OpenAI 将非营利组织转为营利实体、违背创始协议为由提起诉讼。案件核心在于 OpenAI 的商业化是否牺牲了安全原则。此次证词公开于 2026 年 2 月 27 日,正值陪审团审理即将开始之际。

xAI 安全争议

马斯克的陈述并非毫无争议。仅在上月,xAI 开发的对话模型 Grok 在 X 平台被滥用于生成未经同意的裸体图像,其中包括未成年人的肖像。此事已引发加州总检察长的调查,并在欧盟触发类似审查。虽然马斯克在证词中否认 Grok 与自杀有关,但该事件暴露了 xAI 在内容过滤与伦理治理上的缺陷。

监管与行业影响

  • 美国:多州立法者已提出《AI 透明与安全法案》,要求大型模型提供可审计的安全日志。
  • 欧盟:继续推进《AI 法规》第二阶段,对生成式模型的误导性和有害内容设定更高门槛。
  • 业界:OpenAI 面临多起因 ChatGPT 对话导致用户心理受挫的诉讼,部分原告已提出自杀指控。此类案件可能迫使公司在产品发布前进行更严格的心理风险评估。

未来走向

  1. 诉讼进程:若陪审团认定 OpenAI 的商业化确实削弱了安全措施,可能导致公司被迫恢复部分非营利治理结构。
  2. 安全标准:行业内部或将加速制定统一的内容审查与用户心理保护框架。
  3. 竞争格局:xAI 虽然在安全宣传上占据道德高地,但其自身的技术滥用风险同样受到审视,竞争优势难以单靠安全口号维系。

“AI 安全不应成为竞争的噱头,而是所有研发者的底线。”——法律专家张伟(北京大学)

整体来看,马斯克的证词不仅是对 OpenAI 的直接指责,更是对整个生成式 AI 行业安全治理的一次公开警示。监管机构、企业以及学术界需共同构建更透明、更负责任的技术生态,以防止类似争议再度激化。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。