2025年,美国国家公路交通安全管理局启动了一项重大调查。
特斯拉的完全自动驾驶系统再次引发安全争议。
调查涉及约288万辆配备FSD功能的特斯拉车辆,这几乎是特斯拉所有具备该功能的车型。
NHTSA收到58个相关报告,其中涉及14起实际碰撞事故,造成23人受伤。
这些事故有一个共同点,启动FSD模式的特斯拉车辆违反了交通安全法规。
闯红灯、驶入对向车道、在十字路口未能正确识别信号,这些本不该出现的问题反复发生。
报告里有个细节让人炸毛。
调查发现,特斯拉在2024年10月就已经因类似问题接受过NHTSA的调查,涉及240万辆车和4起事故。
也就是说,这些安全隐患早就被发现,但问题仍在持续发生。
更离谱的是,NHTSA又启动了另一项调查。
特斯拉被发现在报告Autopilot和FSD相关事故时存在严重延迟,有时延迟数月才提交本应在1到5天内报告的事故。
特斯拉称这是系统错误所致,但监管部门决定深入调查。
网友们彻底怒了。
评论区里充斥着这是在谋杀、特斯拉良心何在这样的声音。
有人甚至扒出来一个问题,特斯拉到底是技术真的不行,还是压根儿没把用户生命当回事儿。
隐瞒事实特斯拉玩得有多狠
那些出事的车主后来接受了采访。
他们说自己买特斯拉的时候,销售人员一直在强调FSD有多牛。
能自动识别红绿灯、能自动变道、能在十字路口自动通行,这些功能听起来简直就是科幻电影里的场景。
销售人员没有说的是,系统其实还在学走路。
特斯拉对外宣称FSD是测试版功能,现在叫有监督的完全自动驾驶。
意思是说咱们现在还在优化,可能有问题,你买的话得自己承担风险。
理论上没问题。
但实际的销售过程中呢,销售人员强调的都是功能的强大,而不是风险。
就像一个楼盘销售告诉你房子质量杠杠的,然后在补充协议里小字写着可能有质量问题。
你会怎么看。
更关键的是,在2024年和2025年多次调查期间,特斯拉并没有主动通知已有的用户加强注意。
也没有对新用户发出明确的风险提示。
反而是继续推送FSD功能给所有符合条件的车主。
讽刺的是,就在NHTSA调查期间的2025年11月底,特斯拉还启动了有史以来最大规模的FSD免费试用活动。
向约150万辆配备HW4硬件的车辆推送40天免费试用。
试用期覆盖整个假日旅行季节,于2026年1月8日到期。
这意味着更多驾驶者在毫不知情的情况下使用着正在接受安全调查的系统。
这到底是对自己技术的自信,还是在拿用户的生命开玩笑。
从技术角度看,特斯拉的问题出在哪儿呢。
这哥们用的是纯摄像头方案,没有激光雷达,就靠前后左右的摄像头加上深度学习算法来判断周围环境。
这套方案的好处是便宜,坏处是在复杂光线下容易看不清。
十字路口恰好就是最复杂的场景。
阳光直射、其他车遮挡、影子满地,在这种情况下,摄像头识别对向车辆的准确率就会下降。
有时候需要半秒就能识别的东西,可能需要两秒。
在高速通过十字路口的环节,两秒的延迟就足以致命了。
NHTSA的调查报告特别指出,有6辆特斯拉车辆闯红灯后直接撞上了其他车辆。
有个休斯顿的司机抱怨说,FSD根本识别不了交通信号。
车子在绿灯时停下来,在红灯时反而冲了过去。
特斯拉的工程师肯定知道这一点。
理论上他们应该在这种场景下让系统更谨慎,自动降速、提前警告。
但实际代码是什么样的,系统检测到十字路口时,仍然会尽量保持正常速度。
只有在非常极端的情况下才会紧急制动。
换个说法就是,特斯拉明知有风险,还是选择了赌一把。
赌的是这次摄像头能识别到车。
赌赢了没事,赌输了就得有人上医院。
为什么要冒这个险
你可能会问,特斯拉为什么非要这么做。
技术不完善就慢慢开发啊,非得现在就推。
原因其实很直白,就是钱。
特斯拉的FSD功能是按月订阅或一次性买断的。
在美国市场,2025年的订阅价格是99美元一个月,大概是人民币716元。
这个价格在2024年4月从199美元大幅降价而来,降幅接近一半。
买断价格则是8000美元,约合人民币5万8千元。
在中国市场,FSD于2025年2月正式入华,买断价格高达64000元人民币。
这不是一笔小钱,但对有钱买特斯拉的人来说也不是特别大的问题。
关键是,这是一项高利润业务。
从特斯拉的财务报表可以看出,FSD的订阅收入在不断增长,占公司总利润的比例也越来越高。
这是特斯拉未来利润增长的重要支撑。
有券商预计,2025年特斯拉FSD的选装率有望提升到一半左右。
如果因为安全问题延迟发布FSD,这块收入就会缩水。
特斯拉不仅赚不到这笔钱,还得花钱去解决问题。
从商业角度看,这笔账怎么都不划算。
所以特斯拉的逻辑其实是这样的。
先发布功能,收用户的钱,出了问题再说。
到时候咱们改进系统,反正用户已经付钱了,不会因为一两次事故就全部退款。
这种思路在硅谷比较常见,叫先问世后完善。
互联网公司经常这么干,一个应用上线的时候功能不完整,用户提意见,公司就更新。
反复迭代,最后产品就成熟了。
问题在于,互联网应用用得不爽最多卡壳重启。
自动驾驶出问题,人就没了。
这是两个完全不同的概念。
你可以拿一个有漏洞的社交软件测试用户反馈,但你不能拿一个有缺陷的自动驾驶系统拿用户生命做实验。
特斯拉显然没有分清这两者的区别,或者说,它分得清,但选择了视而不见。
因为商业利益实在太诱人了。
公司文化怎么变得这么扭曲
特斯拉这种先发再说的态度,和公司的创始人马斯克有很大关系。
这哥们在推特上吹过无数次FSD马上就能完全自动驾驶了。
结果每次都跳票,从2020年吹到2025年。
但他从来不觉得尴尬,转身又吹下一个时间表。
这种反正我就是对的不同意的人都不懂的性格,慢慢渗透到了整个公司的血液里。
特斯拉的工程师、产品经理、高管,都被这种文化感染了。
有句话在硅谷流行过一段时间,快速行动打破常规。
这本来是指创新精神,但在特斯拉这里变成了快速推功能不管用户死活。
任何一个想提出安全隐患的员工,都可能被贬低为思想保守、不够创新。
时间久了,就没有人愿意再为安全问题发出声音。
公司内部形成了一种诡异的一言堂,老大说可以就是可以,你别废话。
在这种氛围下,那些担心风险的声音被压下去了。
安全隐患被当成可以接受的代价。
伦理问题被当成过度敏感。
这种企业文化在硅谷并不罕见,但在涉及生命安全的汽车行业,这种文化就变得极其危险了。
传统汽车公司为什么那么保守,为什么新功能推出得那么慢。
不是因为他们技术不行,而是因为他们知道代价是什么。
他们经历过几十年的安全诉讼和赔偿,他们知道一次大的安全事故会带来什么后果。
特斯拉还没真正经历过这个代价,所以他们的风险意识不够。
或者说,他们知道有风险,但算过账后发现风险值小于利润值,所以就干了。
这种算法从数学角度看也许合理,但从伦理角度看就有问题了。
因为你在用别人的生命去做这个算式。
监管呢为啥睡着了
你可能还想问,政府部门怎么没有制止这事儿。
答案是,现在的法律框架根本没想好自动驾驶该怎么管。
美国NHTSA的监管框架是基于传统汽车设计的。
对于自动驾驶这种全新的东西,监管规则还在摸索中,漏洞多得是。
特斯拉就钻这个空子。
他们说FSD是有监督的测试版,言下之意就是这还在开发中,出了问题你自己承担风险。
从法律上看,这样的定位确实给了他们很大的活动空间。
监管部门反应速度也慢。
NHTSA这次的调查启动于2025年10月初,但调查本身需要漫长的过程。
而且NHTSA需要先进行初步评估,然后才能升级到工程分析,最后才可能发出召回命令或处罚。
这一套程序下来,可能需要半年甚至一年的时间。
在这个空档期里,特斯拉可以继续运营,继续收FSD的订阅费。
更离谱的是,2025年2月,马斯克和特朗普大幅裁减了NHTSA的工作人员。
这是联邦政府精简人员计划的一部分。
此次裁员影响了NHTSA调查车辆安全问题及监管自动驾驶汽车的能力。
你没看错,就在特斯拉因为FSD安全问题接受调查的时候,负责调查的机构却被大规模裁员了。
这简直就是一个黑色幽默。
监管部门手里没人没权没预算,怎么去监管特斯拉这样的巨头企业。
这也是为什么特斯拉敢在调查期间继续推广FSD免费试用的原因。
他们知道,监管部门拿他们没办法。
第五部分网友怎么看这事儿
自从调查消息发布后,论坛里的讨论就没停过。
有个网友这么说,特斯拉这是在杀人。
明知道有问题还继续卖功能,这和故意伤害有啥区别。
这个观点在评论区获得了最高的赞数。
理由很简单,事实摆在那儿,延迟报告事故、在调查期间继续推广试用,这些都是有证据的。
另一个声音则持保留态度。
完全自动驾驶本来就是个发展中的技术,不可能没有问题。
你不能指望一个还在开发的功能像成熟产品一样完美。
这个观点也不是没道理。
技术发展过程中出现问题是正常的。
但问题不在于有问题,问题在于隐瞒问题、延迟报告。
如果特斯拉第一时间就告诉用户,我们发现了一些安全隐患,建议大家暂时不要使用FSD,那还说得过去。
但他们没有,他们选择了继续推广。
还有人把矛头指向了法律。
为什么不规定企业必须主动披露已知的安全隐患。
为什么不强制召回有缺陷的功能。
确实,现在的法律框架在这方面太松散了。
最有意思的是一个用户的评论。
我就想知道,如果出事的是马斯克的家人,特斯拉会不会这么硬气。
这话戳中了很多人的心。
还有人说得更直白,谁让你们买特斯拉的测试版功能,你们自己贪便宜。
但这个评论下面很快被反驳了。
销售员没有说这是测试版啊,人家说的是领先的自动驾驶技术。
而且现在有150万人在免费试用,他们根本不知道这系统正在接受调查。
从这些讨论可以看出,网友们虽然观点有差异,但在一个问题上高度一致。
特斯拉的做法确实有问题。
第六部分这事儿说明了啥
特斯拉这次事件,本质上暴露的是一个更深层的问题。
不是技术不够先进。
特斯拉的电池、电机、芯片设计都是行业顶尖。
问题也不是工程师能力不足。
特斯拉的工程团队里有业界最聪明的一批人。
问题是,当利润和安全冲突的时候,公司选择了利润。
自动驾驶技术本身就有风险,这是客观的。
但风险不是问题,问题是面对风险的态度。
传统汽车公司的做法是什么。
他们会一步步测试,反复验证,确认没问题了才上市。
他们宁可慢一点,也要保证安全。
为什么,因为他们经历过几十年的安全诉讼和赔偿。
他们知道一次大的安全事故会带来什么后果。
特斯拉自己发布的2025年第二季度安全报告显示,使用Autopilot技术的车辆平均每行驶669万英里才会发生一次事故。
而未使用该技术的特斯拉车辆平均每96万英里发生一次事故。
作为对比,美国全国平均水平是每70万英里发生一次事故。
从数据上看,Autopilot确实比人类驾驶更安全。
但这些数据并不能掩盖核心问题。
当发现安全隐患时,企业是否第一时间告知用户、采取措施。
这才是伦理和责任的体现。
特斯拉显然在这一点上做得不够。
他们选择了隐瞒,选择了延迟报告,选择了在调查期间继续推广。
这种行为说明了一个问题,在特斯拉的价值体系里,商业利益排在用户安全之前。
这不是技术问题,是良心问题。
结语
从现在开始,特斯拉这个品牌在很多人心里已经变味了。
不再是创新科技、未来出行这样的词汇了。
取而代之的是不安全、不诚实。
一个品牌花了十几年建立的形象,可能在这么一个事件里就被摧毁了。
2025年10月10日,调查消息公布后,特斯拉股价单日下跌超过五个点,市值蒸发约733亿美元。
后续会怎么发展,监管部门会更严厉吗。
也许会。
特斯拉会因此改正吗。
也许也会。
但信任这个东西,一旦失去就很难再回来。
对于那些已经买了特斯拉或正考虑买特斯拉的人,这个事件是一个警示。
不要因为一个品牌看起来很酷就盲目信任它。
不要对任何厂商的安全承诺不加思考地相信。
特别是在自动驾驶这个领域,技术还在发展,标准还在完善的时候,多问几个问题绝对没有坏处。
最后想说的是,每一次这样的事件,其实都是在告诉整个行业。
利润固然重要,但用户的生命更重要。
当两者冲突的时候,如果你选择了利润,那就别怪用户和市场最终选择了放弃你。
特斯拉这次的教训,希望别的公司能看在眼里。
全部评论 (0)