印度收紧深度伪造监管 短至两小时强制下架

38 阅读3分钟视野
印度收紧深度伪造监管 短至两小时强制下架

背景

2026年2月10日,印度信息技术部公布对2021年《信息技术规则》的修订稿,首次为AI生成的音视频内容(即深度伪造)设立专门监管框架。随着国内网民突破十亿大关,社交平台的内容安全压力日益增大,政府决定以更严格的标注与快速下架机制来防范合成媒体的误导风险。

关键条款

  • 标注与可追溯:平台必须在用户上传的音视频内容旁显著标注其是否为合成,并嵌入可追溯的元数据。
  • 下架时间窗口:官方下达删除指令后,平台需在三小时内完成全部下架;针对紧急用户投诉,窗口进一步压至两小时
  • 禁发布内容:包括欺骗性冒充、未经同意的亲密影像以及与严重犯罪相关的合成内容,均被列为禁止发布。
  • 技术义务:平台需部署自动化检测工具,对用户声明进行核验,并主动识别、标记深度伪造。

行业影响

此举对全球社交媒体巨头在印度的运营提出了前所未有的合规挑战。Meta、Google、Snap 等公司必须在短时间内升级内容审核系统,投入更多算力与研发资源,以满足两小时内完成自动化下架的要求。

鉴于印度是全球增长最快的数字市场之一,监管趋严很可能成为其他新兴市场模仿的蓝本,进而推动全球内容治理标准向更高频率的自动化响应倾斜。

专家与业界声音

“修订后的IT规则标志着对AI生成深度伪造更为精准的监管。”——Rohit Kumar,The Quantum Hub 创始合伙人

“平台必须在获悉违规内容后三小时内下架,这在自由表达与快速审查之间形成了明显张力。”——Aprajita Rana,AZB & Partners 合伙人

“如此短的时限几乎排除了人工复核的可能,可能导致平台过度删除,进而削弱言论自由。”——Internet Freedom Foundation 声明

前景展望

新规将在2月20日正式生效,平台距离全面部署合规技术仅剩数周时间。业内人士预测,若平台无法在时限内实现高精度自动化检测,可能面临失去《安全港》保护的风险,进而导致在印度的业务受到更严厉的法律制裁。与此同时,全球监管机构正密切关注印度的做法,未来或会在《欧盟数字服务法案》或《美国AI监管框架》中出现类似的快速响应要求。

在AI生成内容快速演进的背景下,如何在防止误导信息扩散与保障言论自由之间取得平衡,将成为各国政策制定者与平台运营者共同面对的长期挑战。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。