自 2026 年 2 月 20 日起,印度将实施一项针对社交媒体平台的严格新规:在接到政府通知后,必须在 3 小时内删除被认定为非法的内容。这一时限较此前的 36 小时大幅缩短,适用于 Meta、YouTube、X(原 Twitter)等所有主要平台,并首次明确覆盖 AI 生成内容。
政府未公开说明缩短时限的具体原因,但新规被视为其加强网络内容监管的最新举措。批评者警告,这可能在拥有超 10 亿互联网用户 的世界最大民主国家中,加速走向系统性审查。
删除范围扩大,AI 内容首次被纳入监管
根据修订后的《信息技术中介指南》,所谓“非法内容”包括:
- 危害国家安全或公共秩序的信息
- 虚假文件、身份冒用材料
- 儿童性虐待内容
- 与爆炸物相关的指导
- 未经同意的欺骗性内容(如深度伪造)
值得注意的是,这是印度法律首次正式定义“AI 生成材料”:指通过技术创建或篡改、意图显得真实的音频或视频。但普通编辑、无障碍功能、教育用途或设计作品被明确排除在外。
AI 内容必须打标,且标记不可移除
新规对 AI 生成内容提出两项硬性要求:
- 平台必须明确标注 用户创建或分享的 AI 生成内容;
- 在技术可行的情况下,添加永久性数字标记(如水印或元数据),用于追踪内容来源。
一旦添加,平台不得移除这些标记。此外,公司还需部署自动化工具,主动检测并阻止上述非法 AI 内容的传播。
专家警告:3 小时时限将迫使平台过度删除
数字权利组织 互联网自由基金会(IFF)指出,如此短的时间窗口“消除了任何有意义的人工审查”,将迫使平台依赖自动化系统,导致“过度删除合法内容”。
Digital Futures Lab 研究员 Anushka Jain 表示,虽然 AI 标注有助于提升透明度,但“公司在 36 小时内已难以兼顾人工审核,3 小时几乎不可能不完全自动化”。
驻德里的技术分析师 Prasanto K Roy 更直言,这项制度“或许是所有民主国家中最极端的删除机制”。他强调,紧迫时限让平台几乎没有机会评估政府请求是否合法合理,合规将“几乎完全依赖自动化”,极大增加误删风险。
据透明度报告,仅 2024 年,印度政府就要求屏蔽超过 28,000 个网址或网页链接,显示出其对网络内容的高度干预倾向。
平台反应谨慎
截至目前,Meta 拒绝对新规置评,X 和谷歌也未回应 BBC 的问询。印度电子和信息技术部尚未就外界关切作出公开说明。
新规生效在即,全球科技公司正面临一个难题:如何在遵守当地法律的同时,避免成为“自动审查机器”?而在 AI 生成内容日益泛滥的今天,强制标注虽是积极尝试,但可靠、防篡改的技术标准仍未成型。
这场监管实验,或将重塑全球对“平台责任”与“言论自由”边界的理解。


0条评论