特斯拉FSD横跨美国挑战夭折,93公里车祸暴露技术盲区与用户认知偏差引发行业信任危机

我一直觉得,自动驾驶,尤其是像特斯拉这种,把自动两个字挂嘴上,其实就像一场弹弓梦。你得知道,弹弓还能打中目标,关键还得看用的人怎么用。就我在研发线摸爬滚打这么多年,自动驾驶的视觉识别,技术词叫感知系统,实际上跟我们日常用眼睛认东西差不多。你说一辆车在公路上跑,天晴天,晴空万里,视线没问题,但一碰到阴天阴影,或者路面有点脏,识别就会出错。更别说那些路面上贴点黑色塑料袋,或是夜里黑掉的警示柱,机器的感知差得太多。好比你晚上开车,看见远远一个模糊的影子,你会不会觉得是个树?还是个坑?这就是系统识别的盲区。很多时候,不只是技术差的问题,还得看人怎么用。

我有朋友,是特斯拉的售后工程师。有次聊天,他说:特斯拉的感知算法其实比几年前要强不少,但还不是真能识别所有障碍。这句话放在耳朵里,其实我心里就一紧。你能说,市面上的自动驾驶系统从技术上能做到百分百安全吗?我不敢,也不太相信。因为,技术就像我们喝的牛奶,不可能百分之百纯净无瑕。更别提那些黑色物体,其实很多只是低反差反光或阴影,传感器还没办法完美识别出来,尤其是在复杂环境下。

特斯拉FSD横跨美国挑战夭折,93公里车祸暴露技术盲区与用户认知偏差引发行业信任危机-有驾

这次那个横跨美国的挑战,结果就是个典型例子。就那两天,刚出发没多久,本来还挺期待,结果竟然在93公里就折了。你想,他俩一直以为车能完全自主,甚至睡着了。结果碰到一块黑色物体,系统没识别出来,差点儿撞到路边那堆黑色塑料包裹。你说,这事不能怪车吗?也不能完全怪人,因为谁会一直盯着屏幕?但重点在:这个盲区,正是目前自动驾驶的死角。

我刚才翻了下笔记,有个疑问:是不是现在的感知算法,主要还是靠视觉识别这套东西?某些低对比度、非标准形状的障碍,确实挺难瞬间反应过来。开发者们一直在吹:识别率提升了xx%,但实际上,哪怕提升一点点,面对实际复杂路况,还是捉襟见肘。为了让事情说得明白点儿,我想说:就像你家的宠物,可能识别你面前的球,但看见一个黑色的胶囊,可能就傻眼了。

特斯拉FSD横跨美国挑战夭折,93公里车祸暴露技术盲区与用户认知偏差引发行业信任危机-有驾

此时,我不得不质疑一个问题,用户的认知是不是也出了偏差。很多人,给自动驾驶贴标签,一听全自动就觉得车能自己跑,完全不需要操心。结果,真正全自动的情况下,是要有人全程盯着的。不然出现突发状况,谁承担责任?正如那次我朋友的例子,人在电话里说:我只看了会手机,车自己跑?——这就像开车但不看路,等出现事故时再怪车不好。

特斯拉宣传里的Full Self-Driving,这名字挺唬人。从营销角度讲,太好骗了。广告片里鼓吹自己出去玩,车辆自动导览,很多用户就误会了,觉得干嘛还要我操心。责任还得归驾驶员。美国那边,已经出了不少报告,讲系统识别失误后,事故频繁发生。特斯拉也说过:使用不当不归我们责任,但你觉得,用户看到的,觉得差不多挺安全的是不是误导?

特斯拉FSD横跨美国挑战夭折,93公里车祸暴露技术盲区与用户认知偏差引发行业信任危机-有驾

我对这事儿有点偏激,可能脑补多了:如果汽车用感知像人一样,那么日出日落、天冷天热甚至下雪,都得比人更聪明才行。否则,技术都还在试验阶段,就别说安全了。尤其,你想想,自动驾驶最关键的是感知和决策,像那次撞车,可能就是感知慢一拍的问题。自我更正:我之前说感知技术已到瓶颈,只能说在某些特殊场景还不够成熟。技术毕竟在不停迭代,不能一下子变天。

说到这里,我突然想到,自动驾驶行业其实也像我们上世纪刚萌芽的互联网,但还没到普及阶段。用户的接受问题,怎么教育,让大家明白自动不是意味着随时松手才是关键。否则,碰到山路蜿蜒,老司机都要盯着路,一心不能分心。

特斯拉FSD横跨美国挑战夭折,93公里车祸暴露技术盲区与用户认知偏差引发行业信任危机-有驾

这次事故真是个提醒:要想行业走得远,靠的不仅仅是黑科技,更是用户心里的认知调整。我在想:真的有那么一天,连侧边让路的AI都能感知到你的突然变动吗?——这其实挺悬的。

(这段先按下不表)你觉得,这种盲点是技术的问题多些,还是用户认知的偏差多一些?我其实挺迷糊的。

特斯拉FSD横跨美国挑战夭折,93公里车祸暴露技术盲区与用户认知偏差引发行业信任危机-有驾

只真心希望自动驾驶能快点成熟,不然,要不要考虑是不是得由人来保证安全?毕竟,小心驶得万年船,才是最实际的事。

本作品为作者原创创作,内容由人工完成,部分内容在创作过程中借助了人工智能(AI)工具辅助生成。AI在资料整理、语言润色、表达优化或灵感拓展方面提供支持,核心观点与主要内容均由作者独立完成。

本文旨在信息与观点的交流分享,不含任何不良导向或违规内容。若需引用或转载,请注明出处与作者。

0

全部评论 (0)

暂无评论