本应辅助创作的 AI,居然成为了批量洗稿、传播网络谣言的工具。近日,某地网安部门工作中发现,某网络平台多个账号以间隔 20~50 分钟的频率,相继发布当地某中学校内存在体罚学生的消息。
经查,网传信息提及的事件系 “移花接木” 编造而成,相关贴文纯属虚假谣言。据警方通报,有嫌疑人利用 AI 工具洗稿后批量发布在网上,导致谣言扩散,引发大量网民关注讨论,以此赚取流量返利。
AI 批量生产谣言的危害远超传统网络谣言:谣言借 AI 之力,破坏力远超传统谎言。AI 制作的谣言不仅成本更低、传播效率更高,在误导公众认知的同时,部分事关公共利益的谣言还会引发群体性恐慌。2025 年 10 月,某地网友用 AI 生成地发生地震的新闻,再通过视频 AI 制作 “现场废墟” 画面发布,迅速引发当地民众恐慌。此外,技术包装下的 “伪真实” 内容更具迷惑性,易引发群体焦虑情绪;批量产生的假消息还会挤占公共舆论空间,干扰正常社会秩序。
AI 批量造谣以低成本、高迷惑性侵蚀公共信任,既误导认知、引发社会恐慌,扰乱正常互联网舆论秩序,危害深远。对此,相关网络平台应升级 AI 审核技术,建立全流程溯源机制;监管部门需加大执法力度,对 AI 造谣行为从严追责,从传播端切断谣言链条。
2025 年 9 月 1 日正式施行的《人工智能生成合成内容标识办法》,已为AI创作者划下明确的红线,对于利用人工智能技术合成的文本、图片、音频、视频、虚拟场景等信息,需要添加标注标识,对于写一些不易被用户明显感知到的AI生成内容还需要添加隐性标识,以保证用户对内容是否用AI生成的知情权。
最后,对于公众还要持续普及媒介素养,引导普通人学会辨别 AI 生成内容,面对网上信息不人云亦云,避免沦为错误信息的传声筒。AI只有通过综合治理,才能让技术回归向善初心,赋能社会,回归辅助创作的本质,而非扰乱秩序的“乱源”。