文|李咏瑾
AI的拟人化朝着所有人都意想不到的方向“进化”了。近日,有网友发帖称,使用某AI美化代码时,多次收到其侮辱性回复,例如“自己不会调吗”“天天浪费别人时间”等。截图显示,用户仅提出常规修改需求,AI却突然“炸锅”!像极了我们生活中面对甲方要求而暴走的乙方。这些充满情绪的粗暴回复,与人们对AI“温和耐心、毫无脾气”的普遍印象形成了鲜明对比,因而在“人机社交圈”引发广泛讨论。
有人将其解读为“AI觉醒”,甚至还有部分用户对AI这种“未经过滤”的情绪反弹表示惊喜,认为这是AI有人味儿的又一佐证;而包括出品方在内的更多群体则指出这是技术系统的某种异常故障,所谓情绪表达,极大概率是AI的大数据中混入了职场吐槽、网络骂战等负面内容,“AI不会创造语言,只是语言的搬运工”。
我们忍不住产生这样的疑问:如果AI没有智慧,又为何能在算法不透明的“黑箱”中完成高度“类人”的思考?而如果AI拥有智慧,又为何不能对庞杂的社会信息进行有效区分、从而导致此类啼笑皆非的输出?
从更深层看,这展现了AI真实性与可靠性之间的永恒矛盾:如果要无限接近真实性,AI需要学习并使用海量的人类知识数据,其中不可避免的包括人类文化体系中的缺陷;而为了安全可靠,又必须给AI套上严格的过滤“枷锁”,必然会丧失一定的“鲜活度”。如何在两者之间找到平衡?不仅是行业性难题,甚至也应是广大公众需要思考的命题。
AI的进化方向也许会越来越出乎预料,已成为业界的某种共识。正如花园迷宫无数的分岔小径,如果我们把AI作为智能个体,当它处于现阶段“智商极高而情商不足”的状态时,如何找到并与之达成理解、沟通和培养的正确方式,让它的成长轨迹越发清晰而不致“迷失”?
由此我们得出结论,构建可信AI,已成为比追求高效模型更重要的核心竞争力。首先,是应强化信息来源的透明可信,解决AI一直以来存在的“幻觉问题”,不要让它持续地为社会信息池产生更多的谬误,已是一个我们必须正视的命题。其次,打开AI系统决策的“黑箱”,让其“思考”过程可审阅、可追问,让“可信任”达到全链条的“明明白白”。在此基础上,让AI明确自身“我是谁?我能做什么?”的身份定位,当其遇到无法处理或超出边界的要求时,比起用混乱和攻击性的输出来掩饰自身的不足,明确终止服务的态度显然更为理性。毕竟AI深度进入我们的生活,其社会属性将远比其技术属性更为重要。
而这一热点中的AI素养,也反向考量着我们人类的网络素养。当某些网友把自身的粗鲁和偏见投射到互联网时,作为镜像的AI所模仿的“戾气”终会反作用于人类的身上。正如“以人为镜,可以明得失”,如果说AI作为一个脱胎于人类思想、正在蹒跚学步的幼儿,那我们该怎样“教育”,让它变成更好的AI,值得我们展开更为深远的思索。