凌晨两点,高速无灯。车主一句"关阅读灯",全车骤黑。领克Z20的语音助手不仅误把大灯关了,面对车主焦急的多次唤醒,只回了一句:"暂时还不会哟。"
三秒后,车撞护栏。
这起看似荒诞的事故,戳破了智能汽车最危险的幻觉——我们以为在和人对话,其实在和概率赌博。
领克反应不算慢。次日致歉,云端推送补丁,行驶中禁语音关大灯。但补丁治得了权限漏洞,治不了设计基因的缺陷。那句"暂时还不会哟"才是病灶:系统明明识别失败,却用卖萌句式消解危险,把致命故障包装成可爱bug。这不是技术问题,是态度问题——把用户当测试员,把安全当可选项。
更值得追问的是物理冗余的缺席。领克Z20的大灯控制完全依赖屏幕与语音,无实体拨杆。这不是智能化,是简化过度。工信部已注意到这一趋势,2026年2月发布修订意见稿,拟强制要求关键功能保留实体操纵件。法规追赶技术的背后,是血的经验:当语音失灵、屏幕死机、网络中断,人需要能"盲操"的保底手段。
同类事故并不鲜见。2025年泼水节,车外路人喊"开窗",某新能源车竟真开了窗,车内进水;同年北京高速,"开天窗"被误听为"开后备箱",箱盖行驶中弹开。这些案例暴露行业通病——语音识别停留在关键词匹配,缺乏语境判断;高风险功能不设二次确认;出事了才OTA补救,把用户当免费测试员。
心理学有个概念叫"信任校准":人对系统的信任必须与其实际能力匹配,过高则滥用,过低则弃用。领克的悲剧在于,车主被营销话术诱导出过度信任,系统却以一句轻佻回复背叛了这种信任。理想的交互设计应当透明展示能力边界——当车速超过阈值、环境光低于标准,系统应主动提示:"夜间高速行驶,语音控制灯光已禁用,请使用左侧拨杆。"这才是双向尊重。
更深层的矛盾在于责任归属。车企热衷宣传"全场景语音""可见即可说",却未同等强调失效场景。用户手册里的免责条款,抵不过销售话术里的智能神话。当事故发生时,"已推送更新"成为万能挡箭牌,而撞坏的护栏、惊吓的车主,成了技术迭代的沉默成本。
智能汽车正在经历从"功能竞赛"到"安全校准"的转折。领克的补丁是必要的,但补丁逻辑本身值得警惕——用软件限制掩盖硬件设计的偷懒,用云端更新替代出厂前的充分验证。真正的信任校准,始于设计桌而非事故后:给高风险功能加物理保险,让语音助手学会说"我不确定",在关键场景主动降级权限。
人机共驾时代,最智能的设计,是让人知道何时不该信机器。
全部评论 (0)