微软Office漏洞让Copilot读取机密邮件 引发数据安全担忧
•30 阅读•2分钟•视野
MicrosoftCopilotOffice数据安全
Zack Whittaker••30 阅读•2分钟•视野

事件概述
微软近日确认,Office 系列中的 Copilot Chat 存在漏洞(编号 CW1226324),导致自 1 月起,付费 Microsoft 365 客户的带有“机密”标签的邮件被 AI 模型读取并生成摘要,违背了数据防泄漏(DLP)策略。
影响与风险
- 机密邮件内容可能被上传至云端的大语言模型,产生潜在泄露风险。
- 受影响范围未公开,涉及的行业包括金融、医疗等对数据保密要求极高的领域。
- 欧洲议会 IT 部门已对内部设备禁用内置 AI 功能,彰显监管层对类似风险的敏感度。
微软的应对措施
- 2 月初开始分阶段推送修复补丁,预计在本月完成全量部署。
- 官方声明将对受影响客户提供安全审计报告,并加强 DLP 与 Copilot 之间的隔离机制。
- 未来将引入更严格的模型输入过滤,确保标签为“机密”的邮件不再被模型接触。
行业与监管反响
- 该事件再次凸显生成式 AI 与企业合规的冲突,引发业界对 AI 数据治理的热议。
- 欧洲议会的禁用举措可能推动欧盟进一步制定 AI 训练数据使用的强制性规范。
- 竞争对手如 Google 与 Anthropic 已公开承诺强化企业版 AI 产品的隐私保护。
未来展望
- 随着企业对 AI 助手依赖度提升,安全漏洞的代价将更加显著,厂商需在功能创新与合规之间找到平衡。
- 监管机构可能加速出台针对 AI 模型训练数据来源的审计要求,推动行业标准化进程。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。