微软Office漏洞让Copilot读取机密邮件 引发数据安全担忧

30 阅读2分钟视野
微软Office漏洞让Copilot读取机密邮件 引发数据安全担忧

事件概述

微软近日确认,Office 系列中的 Copilot Chat 存在漏洞(编号 CW1226324),导致自 1 月起,付费 Microsoft 365 客户的带有“机密”标签的邮件被 AI 模型读取并生成摘要,违背了数据防泄漏(DLP)策略。

影响与风险

  • 机密邮件内容可能被上传至云端的大语言模型,产生潜在泄露风险。
  • 受影响范围未公开,涉及的行业包括金融、医疗等对数据保密要求极高的领域。
  • 欧洲议会 IT 部门已对内部设备禁用内置 AI 功能,彰显监管层对类似风险的敏感度。

微软的应对措施

  • 2 月初开始分阶段推送修复补丁,预计在本月完成全量部署。
  • 官方声明将对受影响客户提供安全审计报告,并加强 DLP 与 Copilot 之间的隔离机制。
  • 未来将引入更严格的模型输入过滤,确保标签为“机密”的邮件不再被模型接触。

行业与监管反响

  • 该事件再次凸显生成式 AI 与企业合规的冲突,引发业界对 AI 数据治理的热议。
  • 欧洲议会的禁用举措可能推动欧盟进一步制定 AI 训练数据使用的强制性规范。
  • 竞争对手如 Google 与 Anthropic 已公开承诺强化企业版 AI 产品的隐私保护。

未来展望

  • 随着企业对 AI 助手依赖度提升,安全漏洞的代价将更加显著,厂商需在功能创新与合规之间找到平衡。
  • 监管机构可能加速出台针对 AI 模型训练数据来源的审计要求,推动行业标准化进程。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。