前几天刷到个新闻,德国有家车企的自动驾驶车出了事,紧急情况下算法选了保乘客,结果把路边的行人撞了。法院判车企担责,还逼着改算法。说实话,当时我盯着手机屏幕愣了半天 —— 这哪儿是技术问题啊,分明是把人往道德死角里推。
你别说,以前总觉得 “电车难题” 是哲学家瞎琢磨的玩意儿,离咱远得很。直到去年坐过一回朋友的智能车,在高速上系统突然报警,说前方有障碍物,问要不要自动避让。那几秒钟里,我脑子里全是乱的:要是避让撞了护栏,我受伤了算谁的?要是不避让,万一前面是个人呢?现在想起来还后背发凉。
科技部不是刚出了个《伦理指引》嘛,说要 “以人为本、安全优先”。可这 “人” 到底指谁啊?是车里掏了几十万买车的乘客,还是突然窜出来的行人?麻省理工搞过个实验,叫啥 “道德机器”,结果发现不同地方的人选得都不一样,有的保老人,有的保小孩,哪有什么统一答案。
最闹心的还是责任划分。前阵子河南高速有辆车智能驾驶模式下侧翻了,司机说系统没提醒,车企说司机没接管。最后还不是司机吃了亏?毕竟现在市面上所谓的 “自动驾驶”,其实大多是 L2 级辅助驾驶,按规定责任全在司机。可车企宣传时又总爱说 “准自动驾驶”,这不坑人嘛!
我认识个开网约车的大哥,他说现在乘客上车就问 “能自动开不?”,他都得解释半天。有回雨天,系统把路灯当成行人急刹,后排乘客差点撞玻璃上,非得投诉他操作不当。你说这事儿怪不怪?机器犯的错,最后要真人背锅。
同济大学有个教授说,现在的 AI 根本解决不了这些 “长尾难题”,有时候晴天挺好,一到雨天传感器就瞎了。可车企不管这些,为了卖车使劲吹 “零接管”“全自动”。上次看车展,有个销售跟我拍胸脯说他们的车 “比老司机还靠谱”,我问他紧急情况保乘客还是行人,他立马支支吾吾说不清楚。
真的,真的不是我抬杠。要是哪天我买了智能车,载着家里人出门,突然窜出来个过马路的小孩,算法要是选了撞护栏伤我家人,我能接受吗?可要是撞了小孩,这良心债怎么还?科技部的《指引》虽说把责任划分清楚了些,但真到了那千钧一发的瞬间,算法哪管什么规定啊。
前几天跟搞编程的朋友喝酒,他说写算法时最怕这种伦理题。以前写个导航软件,错了顶多绕点路,现在写自动驾驶算法,每一行代码都可能决定人的生死。他说有回为了 “保乘客还是保行人” 的逻辑,整个团队吵了三天三夜,最后还是没结论。
现在监管也在收紧,不让车企乱吹 “自动驾驶” 了。宝马那个策略倒还行,死死盯着驾驶员注意力,不让长时间脱手。可这终究是治标不治本啊。只要技术没到能百分百避开危险的地步,这道选择题就永远在那儿摆着。
有时候我会想,咱们搞自动驾驶,不就是为了更安全吗?怎么反倒陷入了 “选谁死” 的怪圈。要是哪天技术真能做到既不撞行人也不碰乘客,那才叫真的进步。可现在呢?感觉像是把还没学会走路的小孩,硬推上了悬崖边。