AI生成内容强制打上“电子水印”:新规解读与影响
自2025年9月1日起,AI生成内容必须依法打上“电子水印”,这是根据今年3月国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》(以下简称《标识办法》)的要求。该规定旨在加强对AI生成内容的管理,防止虚假信息的传播。
《标识办法》主要内容
《标识办法》指出,利用人工智能技术生成的文本、图片、音频、视频、虚拟场景等信息,必须添加显式和隐式两种标识。具体而言:
- 显式标识:指可以被用户明显感知到的标识,如文字、声音、图形等。
- 隐式标识:指在生成内容的数据中添加的标识,通常不易被用户察觉。
内容发布者的主要责任
根据澎湃新闻的报道,B站、抖音、微博、小红书等社交媒体平台已经要求内容发布者主动标识AI生成内容。对于不主动标识的行为,平台采取了多种惩罚措施,包括限流、下架内容、封号等。抖音还对未主动标识的行为采取了取消营利、抹除粉丝等严厉措施。
平台的补漏措施
尽管大多数平台已经采取了“自动标记”的补漏措施,但实际效果并不理想。记者在各平台检索后仍能找到大量未标示的AI生成内容。这表明,仅依靠平台规则和防范机制,很难完全规避未标示AI生成内容的传播。
新规的技术挑战
广东财经大学法学院教授姚志伟在接受南都报采访时指出,新规对内容传播平台提出了较高的技术要求。特别是对于中小内容平台来说,能否有效落地执行还需观察。
内容发布者的动机
内容发布者不主动标识AI生成内容的原因多样,但主要是为了获取流量和变现红利。研究表明,内容发布者的标识提醒能够有效激发用户对深度伪造内容的识别和处理,但同时会降低用户对发布内容的态度和分享意愿。
平台的双重态度
平台对AI生成内容的态度复杂。一方面,AI生成内容是热门内容创作赛道,许多平台推出了扶持计划,并给予流量倾斜和推广。另一方面,一些用户在使用AI起号、做号时缺乏底线思维,传播谣言、虚假信息、色情擦边内容等问题频发。
AI滥用的重灾区
造谣、擦边、换脸是AI滥用的重灾区。2025年4月,中央网信办开展了为期3个月的“清朗·整治AI技术滥用”专项行动。据统计,共拦截清理相关违法违规信息82万余条,处置违规账号1400余个,下线违规智能体2700余个。
典型案例
澎湃新闻统计显示,虚假宣传(谣言)、低俗擦边、违规营销推广AI产品信息(如AI换脸、换声等)是各平台较为突出的问题。此外,B站还将AI生成国际军事虚假内容、低俗猎奇视频、虚拟外国幼儿教育专家育儿内容等列为违规内容。
政策指导与技术落地
通过政策指导、生态协同与技术落地,稀宇科技、阶跃星辰、通义、小红书、哔哩哔哩、Soul等平台已基本完成显式标识规范上线,并加快开发上线隐式标识和传播链互认验证。小红书还牵头编制了图片模态元数据标识实践指南。
总体来看,《标识办法》的实施将有助于提高AI生成内容的真实性和透明度,减少虚假信息的传播。然而,要实现这一目标,还需要各方共同努力,不断完善技术和监管机制。