一段仅有4秒的视频,一个价值100万美元的法律索赔,再加上埃隆·马斯克在社交平台上公布的几行冰冷数据,把特斯拉和它的Cybertruck又一次推到了舆论漩涡的中心。画面里,那辆棱角分明的电动皮卡毫无征兆地偏离车道,径直撞向高架桥的混凝土护栏。
车主贾斯汀·圣·阿莫尔在起诉书里描述,当时车辆开启了自动驾驶功能,是车子自己“发了疯”向外冲。可马斯克甩出来的车辆日志却显示,碰撞发生前的倒数第4秒,记录里明确写着:驾驶员主动关闭了Autopilot系统。这短短的4秒钟间隔,成了整件事最关键的谜题。
过去几年,每当有事故牵扯到Autopilot或者FSD,特斯拉这套数据记录系统就变成了它最有力的辩护工具,好几次在舆论甚至法庭上帮公司扭转局面。这次,看起来历史又要重演。
事情发生在2025年8月。驾驶着一辆崭新Cybertruck的贾斯汀·圣·阿莫尔,经历了她口中的“恐怖瞬间”。她的律师鲍勃·希利亚德对外讲述,车辆当时正在使用特斯拉的驾驶辅助系统,突然就朝着高架桥边缘冲过去。阿莫尔女士拼命想控制住车子,但最后还是撞上了护栏,肩膀、脖子和后背都受了重伤。这场事故不仅带来了身体上的疼痛,还引出了一张高达100万美元的赔偿账单,她把特斯拉告上了法庭。
除了说车辆突然失控,律师团队甚至把矛头指向了马斯克本人。他们提出了一项不常见的指控:特斯拉在聘请并继续让埃隆·马斯克当CEO这件事上,本身就存在“过失”。他们认为,正是马斯克那种激进的产品设计思路和过度宣传“自动驾驶”能力的营销方式,导致制造出来的车存在缺陷。
这种直接把企业责任和个人领导力挂钩的说法,在以往的汽车诉讼里可不多见,也让这场官司的火药味更浓了。面对指控,特斯拉的回应方式很“特斯拉”——它没有立刻召开新闻发布会长篇大论,而是由老板马斯克在他最熟悉的X平台上,用短短一句话抛出了核心证据:“驾驶日志显示,碰撞发生前4秒,驾驶员关闭了Autopilot。”
根据诉状的具体描述,2025年8月18日,阿穆尔驾驶这辆Cybertruck行驶在休斯顿的69号Eastex高速公路上,并开启了FSD功能。当车辆接近256号Eastex停车换乘点附近一个Y形高架桥分叉口时,Cybertruck本应沿着右侧弯道行驶。然而,根据诉状,该车辆却试图径直向前开,直接撞向了高架桥边的混凝土护栏。
阿穆尔随后关闭FSD并接管方向盘,但为时已晚,未能避免碰撞。她的律师团队指出,除了车辆失控的核心问题外,特斯拉的FSD系统存在多方面缺陷:缺乏有效的驾驶员监控系统、未配备激光雷达、自动紧急制动功能无效,以及将该系统作为“自动驾驶”进行误导性营销。
而特斯拉方的回应则完全基于数据逻辑。车辆日志记录了系统状态、油门操作、车速等关键数据。数据显示,在碰撞发生前4秒,Autopilot系统被驾驶员主动关闭。这一发现直接挑战了原告“车辆在自动驾驶状态下失控”的核心主张。
网络舆论场迅速分裂。支持特斯拉的“数据派”认为,技术记录客观、连续、高精度,理论上优于人类模糊记忆。而同情车主的“经验派”则提出疑问:为什么恰好视频从碰撞前4秒开始录制?数据解释权完全掌握在制造商手中,是否存在理论上被过滤或篡改的可能?
特斯拉可以调取旗下所有车辆的运行日志,这些日志会记录各项关键数据,包括FSD或Autopilot是否开启、油门是否踩下、车速以及其他重要信息。这套系统类似于汽车行业的“黑匣子”——EDR(汽车事件数据记录系统)。
EDR是一种类似飞机、火车的行车数据记录设备,用于记录车辆碰撞前、碰撞时、碰撞后三个阶段中对应时间序列的车辆动力学数据以及汽车单元内不同控制模块的数据。支持记录的数据包括:汽车速度、方向盘转向角度、发动机运作状态、车辆稳定状态、制动踏板情况、油门踩踏位置、安全带使用状态、气囊状态、驾驶辅助系统状态以及车辆发生碰撞后的车速变化等信息。
这套系统既有技术优势,也面临潜在质疑。从技术角度看,它能客观、连续、高精度地还原车辆微观状态。但从法律角度看,数据解释权归属问题突出——当事故数据由制造商单方掌控并解读时,如何保证其公正性?业内人士指出,如果算法或者是核心的逻辑不告知,第三方检测机构仍难得出具体结论。
特斯拉的FSD系统目前仍未实现完全自动驾驶,这意味着驾驶员不能将注意力从道路上移开,必须随时准备接管车辆操控。根据美国汽车工程师协会的五级自动驾驶分级标准,特斯拉的系统仅处于二级自动驾驶水平,需要驾驶员持续监管。
这起案件揭示了自动驾驶时代事故责任判定的几个核心困境。
首先是数据可信度与解释权困境。当事故数据完全由制造商掌控并独家解读时,如何建立公正透明的验证机制?这可能催生对独立的第三方数据审计与鉴定机制的需求。
其次是驾驶员注意义务的重新界定。在自动驾驶车辆中,即便系统已关闭,驾驶员的“合理注意”标准是什么?根据现行法规及特斯拉用户手册要求,全自动驾驶与Autopilot均属L2级驾驶辅助系统,驾驶员须全程保持注意力并随时准备接管车辆。法院审理过程中,日志所显示的“提前4秒退出”操作将直接关联对驾驶员是否履行注意义务的判定。
第三是系统缺陷举证的“不可能任务”。车主如何证明一个复杂的软件系统存在导致事故的特定缺陷?诉状中提到了16项具体过失行为指控,包括指责特斯拉“在招聘和留任埃隆·马斯克担任CEO一事上存在过失,且允许其参与产品设计决策”。但这类指控的举证难度极高。
Cybertruck事故的启示在于,技术超前性与法律滞后性的矛盾日益凸显。就在数周前,一名联邦法官刚维持了针对该车企的一项历史性2.43亿美元判决,该判决源于另一起自动驾驶辅助事故案件。这类案件不断积累,正在推动责任判定框架的演进。
从技术层面看,2022年1月1日起,中国新生产的乘用车已被要求配备EDR系统。随着规模化量产,这项技术的成本可能降低,有望成为行业标配。
从法律与保险层面看,责任划分逻辑正在从“驾驶行为”转向“系统控制”。根据《智能网联汽车道路测试与示范应用管理规范》,L3级及以上车辆,车主需在系统提示接管时及时响应,否则需承担部分责任。自动驾驶事故可能涉及多方责任主体,包括道路管理者、网络服务商等。
从监管层面看,全国人大代表刘懿艳指出,市场上存在大量误导性宣传,有些企业有意模糊“辅助驾驶”与“自动驾驶”的界限,用“L2.9”等术语营造“已经可以自动驾驶”的假象。这种宣传加剧了公众误解,需要通过法律框架进行规范。
Cybertruck案例揭示的根本矛盾在于:我们正从依赖人类证词和物理痕迹判定责任,转向依赖由算法和传感器生成的数据流,但信任机制和裁判规则尚未完全建立。
责任判定不仅是技术或法律问题,更是涉及伦理、社会接受度的复杂系统工程。每一次类似事故都在积累经验,推动着行业标准、法律法规和公众认知的演进。
你认为这起事故责任在谁?是特斯拉系统存在隐患,还是驾驶员操作不当?未来,我们应更相信数据,还是更警惕数据背后的权力?
全部评论 (0)