你看,小米那次召回公告后,我真是翻了个白眼。116887辆车,总觉得这个数字听着挺吓人的,可又没啥让我觉得哇,好大的直观感受。脑中随机浮现一幕:我一个朋友问我,你说这次修完车,还能不能像以前一样安心?我当时其实也不知道咋回答,反正心里觉得,车这个东西,一点小毛病都不能大意。
你知道吗,我一边看那个公告,一边用思维发散——估算一下,那些召回的车基本上占了他们总销量的(这个我猜测,估算1-2%,样本少)大概1%。这个比例完全在我脑补,数据不走量,但我感觉,这数字还挺贴近实际。
说到极端场景识别不足,我第一反应就是那些高速上突然出现的稀奇情景。比如:高速上突然有个怪异的动物横穿,车辆AI反应慢半拍。或者,天热天冷时,那些特殊路障出现,AI系统是不是也会有晕头转向的时刻?这其实和我的体验挺像:开车拐了个弯,突然一辆车在你眼前凭空出现,你会不会无端心跳加速?其实我更多还是担心——那些极端的场景,是车厂预料的、还是真实中遇到的很少?我的疑问也就像脑袋里迷糊的一片。
我刚才翻了下笔记/相册,看到一张小时候跟爸爸在乡间跑的照片。那天阳光暖暖的,路特别平顺,没啥复杂场景,就是个普通的乡村小道。但我想,这种普通,怎么就变成了一种极端场景的反义词了?(这段先按下不表)
你知道么,实际上我对远程升级这事挺心存疑的。听起来鬼门关前一扇门,车里的软件不用去4S店排长队,就能狂升级。不像以前手机还得连线,唠叨半天。这次的免费,我理解企业想减少维修成本,也觉得方便。但我思考的点是:技术的生命力,真比人巧手修理强吗?如果出现大漏洞,远程升级能堵住所有油门、刹车、识别的缝,还是只是在事后补丁上假装安全?
等等,我突然意识到,有些说法,其实有点大,不是盖的。比如:车里那套AI系统,难道真的不可能骗过一些极端场景?比如遮挡反光或者不寻常的信号——我见过几次高速路上行驶的辅导车,偶尔传感器被反光遮挡,差点让驾驶员产生误判。其实我觉得,很多时候安全取决的,不光是技术,更是人心。人家李工(修理厂的师傅)常说:现在这些车,常常在极端场景下掉链子,就是因为传感器的感应还不够‘灵敏’。这句话让我很感兴趣,毕竟,传感器不就是车上的眼睛,你这假眼再多,总得看得清楚点吧?也想问:技术成熟了,你是不是可以把感官的距离拉长点,让车不那么容易误判场景?
说到司机的反应,我知道有个从事高速驾驶的朋友,他曾经说:最怕的不是车突然卡住,是那种细微的神经错位。比如:你手忙脚乱,突然提醒前方车辆减速,但你还在发呆,反正自我感觉——好像那种AI不够聪明的场景,自带紧张气氛。
我心里还想,这次召回,难道只针对‘极端’场景下的识别不良?还是说,实际上在平常日子里,车还能挺挺,最多让司机摸不着头脑慢慢转入自我保护状态?其实我找不到一个更科学的说法,只能用心皮在脑袋里猜:是不是开发团队做出判定时,简单叠加不同场景的概率,自己的直觉判断就像计算那样——不完全靠谱。(这段先按下不表)
讲到技术,其实我更关心的是,研发背后那个供应链到底有多靠谱。搞笑点:那些传感器和芯片,出厂前我猜都经过层层 ASTM 级别的测试,但实际用在车上,还是像做菜一样,最后的调味才最重要。就像我买的厨房调料,味儿差不多但每次用量和搭配不同,做出来的菜差别就大了。
讲到这,我不由自主地想到:是不是车里那些硬件环节的优劣,决定了车辆智能的上限?就像家里买的榨汁机,出厂型号一样,但用久了,槽的密封、刀片的锋利度,都能影响果汁的清纯度。
我还有个问题——那套安全识别不充分的场景,是不是未来会变得越来越少?还是说反而,随着复杂情况下失误的概率变大?这也让我反思:技术到底能不能做到完美。大概我总觉得,这类极端场景不过是个心理安全感问题。毕竟,生活中连续出现几次天灾人祸,心里总会有点防不胜防。
说到这里,我忽然想:也许我没想太多——那种极端识别不足的场景,是不是其实只占绝少部分?剩下的,更多的人都在体验——那些每天零碎的小意外,比如:夜晚视线不好、天空阴云密布、路面反光……这些才是真杀手。但我又觉得,这样的场景其实算不上极端,反而是常态。所以,技术的救赎是不是更应该在这方面?这又让我狂猜:是不是开发人员 less care for the edge cases and focus more on the typical?(这段都没细想过,感觉偏偏像是个偏见。)
回头想想:我刚才要写点什么,突然觉得这事蛮复杂——一台车,既像一只千疮百孔的玻璃球,又像个带心跳的机器。升到软件层面,它的心跳能不能做到免疫那些突发状况?还是说,这就是一个永远得不到完美答案的追逐游戏。
心里还在琢磨——这次被召回的116887辆车,究竟哪一台最难缠——车主要不要担心,或者说:以后用车,那些极端时间点的感觉,才是最真实的日常了吧?
全部评论 (0)