他都点了披萨和红酒,也不叫个Uber:七起事故背后被忽视的安全真相
2025年3月25日,加州瓦卡维尔。一辆银色特斯拉在街头缓缓滑行,方向盘后的人歪倒着,一动不动。路人拨打911,警察在ElmiraRoad与ShastaDrive路口截停车辆。打开车门时,警察看见了副驾驶座上的四瓶红酒和一个披萨盒。
披萨凉了。那个人本来可以叫个代驾,或者干脆留在原地等清醒,但他选择启动Autopilot,让车继续开。
这不是孤例。从2018年到2025年,公开记录中至少有七起类似事件。每一起都在重复同一个问题:为什么有人会把命交给一个辅助系统?
答案或许不在技术层面,而在人心深处。自动驾驶的叙事在社交媒体上不断发酵,"2020年百万辆Robotaxi"的预言、"比清醒时开得更稳"的炫耀视频——这些信息拼凑出一个印象:系统已经足够好了,好到可以信任。
足够好和足够安全之间的距离
问题是,足够好和足够安全之间,隔着整条安全边界。Level2系统的定义明确:驾驶员必须全程监控。但"监控"这个词太模糊了。手握方向盘算监控?眼睛看路算监控?还是大脑保持清醒决策能力才算监控?大多数人记住了"自动驾驶"四个字,忘记了后面那句"辅助"。
命名背后的信任危机
监管机构在努力弥补这道裂缝。NHTSA在2023年要求特斯拉在"FullSelf-Driving"后面加上"Supervised",试图让命名更诚实。但用户界面、口碑传播和早期营销记忆已经根深蒂固,不是一个后缀就能改变的。
系统设计的情境盲区
当系统检测到驾驶员无响应时,设计是减速、打双闪、靠边停车。但在瓦卡维尔案例中,这个机制似乎未能启动。是城市道路太复杂让系统判断失误,还是驾驶员在昏迷前的操作让系统认为一切正常?没有人知道确切的答案,但这个问题值得每一个使用辅助驾驶功能的人认真思考。
选择就在眼前,却没有被看见
也许那个披萨和红酒的故事最触动人的地方在于:选择就在眼前,却没有被看见。当辅助驾驶被包装成"几乎自动驾驶",当营销话术模糊责任边界,用户的行为会自然滑向最省力的解释。
下次坐在方向盘后面时,也许可以多问自己一句:系统真的能代替我的判断吗?我真的能放心地把控制权交出去吗?
