□丁慧
AI技术正以惊人的速度渗透我们的生活,从办公自动化到图片合成、从换脸到仿声,无一不展示着技术的“奇点时刻”。然而,当技术被滥用后,关于AI制造的混乱事件却越来越多,让人看到了科技不那么美好的一面。
近日,一则“女子用AI生成流浪汉闯入家中图片整蛊丈夫”的事件引发热议。据报道,这名安徽女子为了测试丈夫反应,用AI生成逼真的“流浪汉闯入家中”的图像发给丈夫。丈夫信以为真,慌忙报警,民警火速赶到,才发现是虚惊一场。
这事件迅速引发网友热议,但也揭开了一个愈演愈烈的问题:当技术被滥用为恶作剧的工具时,代价可能是导致公共资源极大浪费。
AI生成图像的“逼真度”,让虚构与现实的边界前所未有地模糊。过去,“整蛊”只是朋友间的口头玩笑,如今却能以视觉假象直接介入现实。可以看到,新闻中这名女子生成的“流浪汉闯入家中”画面十分逼真,以至于她的丈夫深信不疑。但一个本该止于玩笑的行为,最终却以惊动警方结束,让整个事件显得十分荒诞。
警力资源是有限的,每一次出警都意味着时间、人力与精力的投入。民警在接警后不可能抱着“也许是玩笑”的心态核实,而是必须按照标准流程应对。调度、出警、核查,每一个环节都是对公共资源的调动。当这类“AI恶作剧”多发,就会形成系统性的资源浪费,影响真正需要救援的紧急事件。
有律师指出,即使不是本人报警,只要明知他人会被误导而仍制造虚假信息,就可能构成“间接故意”,属于报假警共犯。根据治安管理处罚法,可被拘留并罚款;若传播造成社会恐慌,甚至可能触犯刑法中的“编造虚假信息罪”。可以看到,对当事人来说,“AI整蛊”虽然有意思,但一旦越界,就可能演变为违法行为。
类似的荒诞事件,一而再、再而三上演。从“AI合成女儿失踪引发大规模搜救”,到“AI伪造明星赌博消息被警方调查”,一次次都验证了一些人利用AI造假可以轻易占用公共资源,甚至挑动社会情绪。虽然最终均查明为AI合成的假消息,但警力、舆论资源早已被严重消耗。
必须强调,每一次“闹剧”,都是一次公共资源浪费的过程。若假事件频发,久而久之会造成“狼来了”效应,影响舆论和警方的判断。比如,未来当AI视频伪造一场“老人被殴打”或“孩子走失”,又有多少人能第一时间分辨真假,警方是否还能像今天一样迅速出警、全面响应?
制度之所以能运转,依靠的是人人守规;所有应急响应的前提,是信息真实与判断精准。一旦虚假信息被大量制造并反复传播,社会秩序的正常运行就会承受无法预估的成本。
当然,除了个体的道德边界,平台必须承担起技术责任。目前不少AI图像、视频合成工具,对用户资质、内容用途毫无门槛,甚至鼓励“分享恶搞效果”。缺乏技术审查、缺乏伦理提示,才是此类事件屡发不止的温床。而平台不能只做甩手掌柜,应当在合成前加入明确提醒,也更应建立追责机制,一旦涉及公共危机,应协助警方溯源、追查责任人。
(作者系资深媒体评论员)