日前,美国佛罗里达州法庭一记重锤落下,陪审团裁决特斯拉需为其2019年配备自动驾驶系统的Model S致命车祸承担部分责任,支付高达2.43亿美元的赔偿。
这是美国司法史上首次认定特斯拉对Autopilot事故负有法律责任,这笔巨额赔偿无疑在智能驾驶行业投下了一颗震撼弹,迫使人们直面一个被技术光环掩盖的冰冷现实:当车轮开始自主转动,我们是否已在过度信任中让渡了生命的掌控权?
事故的惨烈细节令人心痛:Model S在十字路口高速闯过停车标志,猛烈撞向一辆正在转弯的车辆,致一名女性当场殒命,另一人重伤。法庭认定特斯拉在Autopilot系统的安全性上存在误导性宣传,系统未能有效识别十字路口风险,警示不足、接管机制更是失效——这些致命缺陷背后,折射出企业对技术能力的盲目自信。
特斯拉并非孤例。奔驰在美国推广的L3级Drive Pilot系统,也曾在拥堵路段因系统误判引发连环追尾。据美国国家公路交通安全管理局统计,截至去年6月,涉及辅助驾驶技术的重大事故报告累计达956起,其中特斯拉占比高达736起。
而中国车市亦非太平,仅2023年涉及新能源汽车智能驾驶的事故数量同比上升46.3%,小鹏P7、蔚来ES8等曾因辅助驾驶功能卷入人命官司。2022年小鹏P7开启LCC功能后未能识别前方故障车辆,导致追尾并致人死亡;2021年蔚来ES8启用NOP功能时撞上工程车,车主不幸罹难。2025年3月安徽高速三名大学生驾驶搭载NOA(导航辅助驾驶)功能的小米SU7因事故燃烧遇难。
这些事故如同血色警示,一次次控诉着技术边界被模糊带来的灾难性后果。
当车企热衷堆砌“L2.999”的模糊表述,将“辅助驾驶”包装为“自动驾驶”,实质是在用营销话术模糊责任的边界。一些用户被这种过度宣传迷惑,在行驶中双手脱离方向盘甚至酣然入梦,将性命轻率托付于尚不成熟的技术。这并非简单的用户误操作,而是企业营造的“技术全能”幻象诱发的危险行为。特斯拉在法庭上辩称系统设计初衷要求驾驶员持续监控路况,但现实中其宣传的“全自动驾驶”(FSD)名称本身,便构成一种暗示与纵容。
回归敬畏原点,首先需要技术企业诚实面对边界。车企必须清晰标注智能驾驶功能的能力上限与失效场景,杜绝误导性命名与宣传。在功能设计上,亟需引入更严格的驾驶员状态监控机制,如DMS系统与方向盘感应需深度融合,确保驾驶员时刻处于责任位置;同时建立安全冗余机制,系统遇到边界模糊场景时及时降级并强制人工接管。
监管层面亦需同步进化。应建立统一规范的辅助驾驶技术命名与分级标准,结束当前市场宣传的混乱局面。强制推行智能驾驶“黑匣子”数据记录与共享机制,为事故责任认定提供客观依据。在技术伦理层面,需明确“辅助”驾驶系统的根本使命是提升人类驾驶安全,而非替代人类驾驶责任。
特斯拉天价赔偿案的价值,远超个案本身。它如惊雷般唤醒了技术蒙眼狂奔中的行业:智能驾驶的前行之路,必须由敬畏铺就。技术的光环永远不该遮蔽对生命谦卑的守护,每一次“自动驾驶”的华丽承诺背后,都需匹配坚实的安全基石。当人类将部分驾驶权交给算法,对技术边界的清醒认知,便是守护生命不可逾越的底线。唯有如此,科技的车轮才能载着人类驶向真正安全的未来——在那里,技术的光环与生命的尊严,终得两全。