理想汽车为车辆起火事件致歉,智能车安全不能靠人赌经验

2025年10月23日晚,上海漕河泾,一辆理想MEGA在行驶中突然起火,浓烟滚滚。车内两人侥幸逃生。四小时前,理想汽车的“连山”系统已发出异常预警——可这道警报,最终没能阻止事故发生。

理想汽车为车辆起火事件致歉,智能车安全不能靠人赌经验-有驾

这不是一次偶然的技术故障,而是一次本可避免的系统性失守。理想汽车在10月31日的致歉中承认:系统早有预警,但人没敢“踩刹车”。他们此前没有非碰撞起火的先例,于是选择观望。这一迟疑,暴露出智能汽车时代最致命的悖论——我们用最前沿的算法监控车辆,却用最原始的方式应对风险。

理想并非没有技术。其“连山”系统能实时监测万辆车的运行数据,提前捕捉冷却液异常。问题出在预警之后:系统报警,人工介入,层层研判,最终决策滞后。当机器发现异常,它不能自动断电、降功率或强制靠边停车,只能“提醒”人类;而人类在缺乏先例时,本能地选择“再等等”。这不是某位员工的失误,而是人机协同机制的结构性缺陷。

对比工信部最新发布的《智能网联汽车 组合驾驶辅助系统安全要求》(2025年征求意见稿),理想此次的响应流程显然未达标准。该文件明确要求:对高风险异常,系统必须设定分级响应与强制处置机制。例如,当动力电池出现热失控前兆,系统应在确认后数秒内启动安全降级,自动限速、断电并引导车辆靠停。这不是“建议”,而是L2级智能驾驶的强制安全基线。

理想汽车为车辆起火事件致歉,智能车安全不能靠人赌经验-有驾

其他车企已在行动。比亚迪在10万元级车型上标配DMS与远程断电功能;蔚来在气囊弹出后自动录像并呼叫救援;华为ADS 3.0甚至能在检测到电池异常时,主动降低充电功率并建议用户返厂。这些不是炫技,而是将“预警—决策—执行”闭环内置于系统之中,让机器在关键时刻拥有“最终决定权”。

理想此次召回11,411辆车,免费更换核心部件,并将质保延长至10年。这是一次负责任的补救。但真正的改变,不在于修多少台车,而在于重构响应逻辑:当系统判定风险超过阈值,是否必须等待人工确认?答案应是否定的。安全冗余的终极形态,不是“人监督机器”,而是“机器监督人”,并在极端情况下接管决策。

智能汽车的本质,是移动的生命容器。我们不能让每一次预警,都变成一场赌上经验与直觉的“人工会诊”。当算法能预判起火,它也应有权阻止起火。

安全,不该是技术的尾声,而应是系统的第一行代码。

0

全部评论 (0)

暂无评论