“严厉打击AI谣言,有必要尽快明确针对AI应用的行业规范,为维护公共利益构筑起强大防火墙。”
□赵志疆
今年以来,全国公安机关按照“净网—2025”专项工作部署,聚焦人民群众反映强烈的网络谣言突出网络违法犯罪,持续加大打击整治力度,及时发现查处借热点舆情事件进行造谣传谣线索。10月20日,公安部公布10起打击整治网络谣言典型案例。
注意力经济时代,有些人热衷于蹭热点、散播谣言、混淆视听,为了赚眼球、博流量无所不用其极。网络谣言不仅误导网民、损害当事人利益,而且严重扰乱网络秩序。相关部门此次重拳出击,再次亮明了态度——网络空间不是法外之地,蓄意编造、散布、传播虚假信息必将受到严厉制裁。
新公布的打击整治网络谣言典型案例中,多数都以短视频平台为载体。其中两例都与AI工具有关:浙江公安网安部门查明,王某彪为吸粉引流、博取关注,使用AI工具生成了一篇内容为“女儿‘王喵喵’被人抱走”的虚假信息,并配以一张从互联网上搜到的小女孩图片后,在某短视频平台发布,引发大量网民关注和讨论,误导不少热心人士纷纷转发、助力寻找,扰乱社会公共秩序。另一案例中,山西公安网安部门查明,王某使用某文字类AI工具捏造了涉“山西大同地震”相关谣言信息,之后又利用视频生成类AI工具生成与文本对应的视频,在社交平台发布,并配文称“大同地震现场:一片废墟与惊魂”,误导大量网民关注和讨论。
伴随着互联网科技的飞速发展,虚拟的AI技术变得越来越“现实”:只要提供素材和简单描述,AI技术就能实现文生图或图配文。前者只需提供文字,就能自动生成相对应的图片;后者则会根据图片内容,自动匹配相应的文字。有了AI技术加持,网络谣言的隐蔽性更强,破坏性更大。AI不仅能在短期内批量生成大量网络谣言,而且能结合深度伪造技术生成图片、视频、录音,使人很难辨别真伪。
《互联网信息服务深度合成管理规定》指出,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。《生成式人工智能服务管理暂行办法》明确规定,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。
严厉打击AI谣言,有必要尽快明确针对AI应用的行业规范,为维护公共利益构筑起强大防火墙。对于AI生成软件来说,应对内容和关键词进行审核,把好生成式内容的第一关,避免哗众取宠的虚假内容混淆视听。对于内容平台来说,不仅要对AI生成内容进行显著标识,而且应健全内部管理机制,及时清除涉嫌违法违规的不良账号。只有强化各方的主体责任,才能有效打击各类AI谣言,防止技术跑偏和滥用。