小米再次翻车?11.7万辆SU7因L2辅助驾驶安全隐患被召回,行业成熟之路还需更多责任与透明

这几天看到新闻,11.7万辆小米SU7被叫回,还是因为L2高速领航辅助出了点幺蛾子。你说这车也算是聪明车代表,结果偏偏在极端复杂场景下出现了识别失误和预警滞后的情况。那一瞬,我还真用手指点了点屏幕,突然觉得这事儿不小。毕竟,L2级别能算半自动,不能一出事就推脱责任给司机。

我以前试驾过几款同价位的车,比如说某个老牌合资品牌的同款车型,你拿它和小米比,最大的差别很明显——实际体验上它处理复杂路况的反应快,新手感觉更平稳一些。反观小米的那套系统,虽然号称高速领航,但在施工区呢?临时障碍物突如其来时,反应都变得相对迟钝——比如那次安徽高速撞车事故,车以116公里/小时冲入施工区,虽然有预警,但车最终还是没有避开障碍。这个差别,就是你在路上开着它,突然出现复杂场景,心里会不会打个问号?我估算啊,系统识别延迟和响应失败可能平均在0.5秒到1秒之间(体感/样本少,估算略有不准,但差距明显)。这究竟是不是技术积累还不够?

小米再次翻车?11.7万辆SU7因L2辅助驾驶安全隐患被召回,行业成熟之路还需更多责任与透明-有驾

这两天我反复琢磨,安全隐患到底在哪。我想,也许是研发的难点:在极端场景中辨别路况,就是算图像识别和传感器融合的死角。你想,这类场景多了,光从理论上讲,要让系统识别准确——难度不低,就像用谷歌翻译,遇到专业名词、俚语,翻译准确率就会下降。车辆要在高速公路上识别施工标志、临时隔离带、突然出现的工人或障碍物,几乎是真正的看了个大眼睛。

我刚才翻了下笔记,拍的照片,居然是晚上高速,车前灯筒里,挡风玻璃外的影子映得模糊。那一次,系统发出预警,但我知道它其实也不一定看得全。我还在想,这究竟是不是算法没调优好,还是传感器本身不够敏锐?问一问自己——它们到底是硬件跟不上,还是软件还在试错期?

小米再次翻车?11.7万辆SU7因L2辅助驾驶安全隐患被召回,行业成熟之路还需更多责任与透明-有驾

(这段先按下不表)我还得说一句,很多时候,自动驾驶的安全性其实很大程度上还是取决于人的干预意愿。你开到极端情况下,跳个人机交互,好比游戏里的临时突发事件——如果司机都不敢马上接管,也许系统反应再快,也帮不上忙。那我想问:有没有可能,未来的自动驾驶,真能完全自主?还是说人类驾驶员始终得站出来补位?

有个点,可能很多人没细想过:在车企疯狂快速迭代的背景下,安全和责任怎么划分?我觉得,光靠软件修修补补是不够的。就像手机,每次推个更新,问题都能修,但如果修得不彻底,后续问题还会一堆。汽车不同,牵扯到道路上千种极端场景,你说要靠OTA一两次补丁就解决全部隐患,那是天方夜谭。

而且,安全隐患一出,消费者心理变化也很微妙。有位修理工说:这次召回,车主们其实有点嫌麻烦。毕竟,软件OTA几下就搞定,不像以前跑去4S店拆来拆去。这也是个看似方便,实则责任重大的新战场。你觉得,车企是不是要主动把问题细节公开得更透明一些?识别延迟具体到哪一步?算法哪里出现偏差?还要不要考虑开放一下数据,给第三方检测机构点火? 这样多点可验证,难不成也能增添点点消费者的信心。

小米再次翻车?11.7万辆SU7因L2辅助驾驶安全隐患被召回,行业成熟之路还需更多责任与透明-有驾

我个人感觉,汽车安全不只是创新快,快得让人心慌。毕竟,汽车不像手机,它要的不是秒玩换新,而是稳稳的。我曾问过一位同事:如果系统误判,让你以为前面没有车,结果发生了追尾,你会不会觉得有点融资?他说:当然会,小米这事儿让我觉得,技术还没到家。对,技术还得磨。

你知道我为什么一直觉得,汽车像一份社会责任?它牵扯人命,不能随意试错。或许,我们都该问:科技的光环之下,是否隐藏着责任的阴影?如果出现事故,企业的透明度和应对方式,才是真正考验它们的底线。

小米再次翻车?11.7万辆SU7因L2辅助驾驶安全隐患被召回,行业成熟之路还需更多责任与透明-有驾

(这段先按下不表)说到这我突然卡壳了——你觉得,未来的自动驾驶,还能靠封存秘诀让人安心吗?还是应该像菜谱一样,把关键算法和数据都放出来?就像帮朋友修电脑,都得让他知道哪里出了错,修好了才放心。

下意识会不会想到,车子跑到那瞬间,路旁那个擦肩而过的小孩会注意到它的压力吗?那一瞬,每次看到有人开快车、急刹那,心里都一咧:这危险,其实全靠点运气。未来会不会,交通安全的加成都能靠算法神经撑得住?或者,到头来,还是要汽车跑得像慢半拍,才能安全?

小米再次翻车?11.7万辆SU7因L2辅助驾驶安全隐患被召回,行业成熟之路还需更多责任与透明-有驾

这点,我真没细想过,也许就只是一份普通路人的猜测。

0

全部评论 (0)

暂无评论