特斯拉又被推上风口浪尖:美国监管机构对装有“全自动驾驶”(FSD)功能的约288万辆车辆发起调查,原因直指闯红灯和逆行等危险行为。 58起违规举报、14起碰撞、23人受伤——这些数字像警报一样响亮。
今天的科技神话,正在被安全现实狠狠敲醒。 调查显示,多起事故场景惊人相似。
几辆装有FSD的车在红灯时闯入路口,导致撞击,部分事件造成人员受伤。 有的投诉还曝光了“走错道”的戏码:该转弯却直行,跨越双黄线冲入对向车道,甚至试图逆向行驶。
马里兰州同一十字路口的多次异常,尤其刺眼。 特斯拉对该路口做过“定点修补”,但问题并未彻底消失。
短句。 直白点说。
系统在复杂路况下吃不透剧本。 第三方机构AMCI Testing的长途实测也提供了佐证。
1600公里下来的表现并非一路顺风。 系统起步稳定,但用着用着就出现“莫名其妙”的决策:忽然闯红灯,误入逆向车道。
有人形容这类表现为“高光开头、低能收场”。黑盒AI的“幻觉”成了关键词:在复杂场景中,模型会做出与交通规则相悖的判断,原因难以一一定位。 特斯拉把FSD定义为“需要驾驶员监控的智能驾驶”。科技宣传词听起来很牛。
真相是端到端深度学习模型在边缘场景中极易失控。 软件版本快速迭代——V12到V14——是公司竞争力的象征,也是监管难以追上的节拍。
NHTSA的一项调查可能耗时一年半左右,而在这段时间内,特斯拉已经发布了多个版本。 监管如同慢镜头,而技术更新则跑在前面。
这种节奏差,谁在承担风险?显而易见,最终是用户。 政策层面也有人发声。
参议员布卢门撒尔点名要求优先审查FSD在如铁路道口等高危地带的表现。 他的担忧不无道理:近乎碰撞的记录在增加,监管不是摆设。
市场层面反应同样迅速。 消息一出,特斯拉股价下跌,投资者担心的不只是召回费用,还有软件订阅和Robotaxi宏图的现实可行性。
若监管认定“不合理安全风险”,那么近290万辆车的FSD功能或被限制,乃至召回,商业模式会被重击。 用户体验是另一面。
部分车主抱怨问题被忽视,或修复不彻底。 公司高调的“以用户安全为先”的口号,和一些车主的实际遭遇产生了落差。
对比之下,传统车企采取更稳妥的路线更能赢得信任。 例如某些品牌在自动泊车、辅助驾驶上强调“能用且稳”,量虽小但可靠。
市场正在提醒:花哨不等于安全。 这场事件不只是特斯拉的单点危机。
它暴露出整个自动驾驶行业的两大难题:技术的不可预测性与监管的滞后性。 AI在文本生成里会“幻觉”,上路的AI也会“晕车”。当科技公司用端到端学习来解决规则性强的交通问题时,模型的误判代价特别高。
企业能否同时做到快速迭代与可验证的安全保障?这是摆在所有厂商面前的命题。 说到结论:我们不能只崇拜概念。
智能汽车需要坚实的技术基础,也需要更强的责任心。 短期内,监管会更严。
用户会更谨慎。 厂商要在“速度”与“可靠”间做出选择。
建议普通车主在FSD未被完全证明安全前,保持警惕,始终盯着方向盘。 社会也应推动更及时、更透明的审查机制,让技术创新在安全轨道上运行。
你怎么看?接受AI上路的速度快一点好,还是慢一点更靠谱?欢迎在评论区聊聊你的观点和亲身经历。
全部评论 (0)