• 正文
  • 相关推荐
申请入驻 产业图谱

十字路口的“金属休克”:盘点那些智驾系统很难替代人类驾驶员的场景

08/08 15:40
405
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

本文来源:智车科技

一辆无人出租车横在晚高峰的马路中央,任凭交警怎么喊话都一动不动,身后排起长龙的车流里响起一片焦躁的喇叭声。这不是科幻电影的场景,而是真实发生在城市脉搏中的一次技术突然“休克”。

2025年中,某市的街道上,一辆印有某头部科技企业标志的L4级自动驾驶出租车正在进行掉头操作。突然,它停在路中间一动不动,完全阻塞了整条道路。晚高峰的车流迅速排起长龙,喇叭声此起彼伏。

赶到现场的交警对着无人车喊话:“你走下子咧!”但车辆毫无反应。最终,工作人员不得不赶来现场,坐进驾驶室将车辆开到路边。

在该市市民口中,这款自动驾驶出租车被称为“苕某”——“苕”在某市方言中意为“蠢、笨、憨”。在该市某网市民留言板上,大量投诉指向这些车辆:红灯时冲入路口中央、转弯时卡顿不动、变道犹豫不决。

当前自动驾驶的一些技术瓶颈

当前主流自动驾驶系统主要依赖多传感器融合感知环境,再通过预设算法做出决策。这套技术路线在结构化道路环境中表现尚可,但面对复杂多变的开放道路场景时就显得力不从心。

在感知层面,系统存在明显缺陷。一位体验者刘爽的观察很具代表性:“从我家到上课这条路,如果是老司机,直接绕小路过去只需六、七分钟,但某品牌自动驾驶车必须走普通大路,红绿灯比较多,需要十几分钟。”

自动驾驶系统无法像人类司机那样灵活选择路线,其感知能力仍受限于预设地图和固定规则。

决策系统的问题更为突出。在某市街头,一辆亮着左转灯的自动驾驶车陷入尴尬僵局—机械地闪烁着左转信号,由于没有车辆让行,它就“一直这样闪”无法前进。这种机械式决策在面对复杂交通互动时显得呆板而低效,完全没有人类驾驶员那种随机应变的灵活性。

更令人担忧的是边缘场景处理能力。一位业内人士指出:“比如说路中间有个坑,下雨后雨水把它填满了。这时你的感知系统有可能识别不到它是个坑,可能会认为是正常的路面反光,或者认为水很浅,就直接压过去,就会造成安全风险。”当然,还有那个全网熟知的名场面:“被一个袋子吓住的自动驾驶车”。等等这些感知不足的场景反映了一个最重要的问题就是:很多时候不是看不见,而是不认识。

这些技术缺陷导致自动驾驶出租车在某市运营时被贴上了“测试车辆、随时停车”的警示标签。即使后车提前注意到,仍常被前车的突然急停惊吓到。

为什么机器学开车这么难?

自动驾驶技术遭遇的瓶颈并非偶然,而是源于一系列根本性挑战。感知技术的物理限制首当其冲。现有传感器在恶劣天气条件下性能大幅下降,暴雨、大雪、浓雾等环境会严重影响激光雷达摄像头的识别能力。

决策算法的核心困境在于缺乏类人推理能力。人类驾驶员能够通过观察周围车辆的细微动态预测交通流变化,而现有系统主要依赖预设规则和有限的数据训练。当面对训练数据中未包含的场景时,系统往往不知所措。

高精度地图依赖是另一大软肋。中国的道路环境复杂多变,施工、临时改道等情况频发。自动驾驶系统高度依赖高精地图导航,但地图更新速度跟不上现实道路变化,因此现在大家都在推无图方案(像无图NOA)。

社会接受度构成更深层的挑战。公众对自动驾驶技术信任度不足,一旦发生事故,尤其是责任认定模糊的情况下,会进一步加剧担忧。在某市,传统出租车司机已经因收入减少而公开声讨某品牌自动驾驶车辆。

成本压力同样不可忽视。每辆某品牌自动驾驶车的硬件成本高达25万元,加上数据采集工程师、开发人员、维护人员等团队支出,运营压力巨大。虽然最新一代车型成本已降至20万元左右,但距离大规模商业化仍有距离。

梳理那些机器难以超越人类的场景

场景类一:记忆驱动的决策

人类驾驶员会利用长期经验优化路线选择。下班回家时,司机知道某段路的特定车道经常拥堵,会提前变道;知道某个路口左转车多,会选择直行后绕道。这种基于记忆的预测性决策是当前自动驾驶系统难以实现的。

场景类二:整体交通流感知

红绿灯起步时,人类司机不会只盯着前车。我们会观察交叉方向车流动态,感知整个路口的“节奏”,甚至在红灯未变时就能根据横向车流减速情况预判起步时机。这种宏观交通流的理解能力远超现有自动驾驶系统的处理水平。

场景类三:多因素实时决策

接近红绿灯路口时,熟练司机会综合多种因素选择车道:不排在大货车后面(大车起步慢),避开公交车专用道,选择排队最短的车道,甚至预判哪条车道的司机可能接手机而反应慢。这种多变量实时优化决策对机器系统而言是巨大挑战。

场景类四:非结构化环境应对

在未划线道路、乡村小路或临时改道区域,人类司机能够通过观察路面痕迹、参照其他车辆轨迹等方式通行。而自动驾驶车辆在这些场景往往直接“罢工”或需要人工接管。就像那就话:回村的路只有我能开,别人都不认路(因为本来就没有路),这时候自动驾驶就更不行了。

场景类五:人车交互的微妙沟通

在无信号灯路口,人类驾驶员通过眼神交流、手势或车辆微动实现高效通行;当有电动车想闯红灯时人类驾驶员往往会“狠狠”的按下喇叭警示电动车别动;当遇到施工+堵车时,执勤交警的一个手势,人类驾驶员就明白该往哪走了...这种非语言沟通能力和交互方式是目前自动驾驶系统难以复制的,导致其在混合交通中表现笨拙。

在日常驾驶中常会遇到一些值得深思的场景。例如:驾驶员在道路上行驶时意图向右变道,此时右后方恰有一辆车处于后视镜及侧窗视野盲区。然而,驾驶员通过观察地面投射的车辆影子,成功判断出盲区车辆的存在,从而避免了变道风险。此类由物理遮蔽造成的感知盲区,理论上可通过自动驾驶系统多传感器融合布局(如侧向激光雷达)予以规避。

但该案例的核心启示在于:驾驶员依据地面光影动态推断盲区物体状态的能力,展现了人类基于环境线索的深度情境理解。这种能力依赖于对光线、物体运动关系及道路空间几何特性的综合认知,是当前智能驾驶系统在感知层难以复现的类人经验积累。类似需要高度环境交互理解与经验推断的边缘场景,在开放道路测试中广泛存在。

漫长而充满希望的未来之路

盘点上述场景并非苛责当下自动驾驶开发者或系统供应商,而是为阐明关键事实:若自动驾驶系统欲真正替代人类驾驶员,其发展仍面临艰巨挑战。研究显示,实现该目标需跨越技术认知与工程实践的双重鸿沟。

中国工程院院士李德毅曾指出,当前自动驾驶已走过“科研探索期”,进入“产品孵化期”,但这个阶段会非常漫长。他预计,自动驾驶的大规模量产要到2060年。

“现在的智能网联汽车还没有大家想象的那么智能,依然需要大算力的突破,在线控平台、集中式域控制器等方面发力。”中欧协会智能网联汽车分会秘书长如是说。这代表了行业对技术现状的理性认知。

麦肯锡的预测相对乐观:L4级别自动驾驶出租车和L5级别全自动卡车的商业可行性预期在2028年至2031年间达到,对司机就业的冲击预计最快也要2030年左右。

而面对当前的困境,新一代自动驾驶技术正朝着“类人化”方向演进。理想汽车推出的VLA大模型代表了这一趋势:它融合视觉(Vision)、语言(Language)和行动(Action),旨在模拟人类驾驶的认知过程。VLA模型的核心突破在于引入“链式思考”能力。系统可以像人类一样进行多步推理:识别盲区→预测潜在危险→提前采取预防措施。在雨天路滑时,它能推理分析盲区潜在危险,提前减速而非被动反应。

多模态融合是另一关键方向。研究人员开发了交通标志识别多模态对比学习模型(TSR-MCL),通过将视觉特征与语义特征对比,显著提升了对复杂路标的识别能力。在TT100K数据集上,该模型实现了78.4%的最高准确率。

仿真测试成为加速技术成熟的催化剂。理想汽车每天进行超过7万次仿真测试,覆盖2800个极端场景,如暴雨、拥堵和突发事故,使系统能在安全环境中积累经验。

在技术路线图上,渐进式演进成为行业共识。从特定区域、特定场景的有限应用开始(如园区接驳车或固定公交线路),逐步扩大运营范围。随着数据积累和算法优化,最终实现开放道路的全面应用。

未来城市的街道上,一辆搭载VLA大模型的自动驾驶车正平稳行驶。面对突然从盲区冲出的行人,系统通过3D视觉感知和思维链推理,提前0.5秒开始平稳减速,避免了急刹车的惊险。随后它流畅地并入左转道,在绿灯亮起前通过观察对向车流动态调整了起步时机。

交警站在街角注视着这一切,手中的对讲机安静无声。不远处,一群出租车司机在咖啡馆里讨论着转型计划,墙上的电子屏显示着“自动驾驶运维工程师”培训广告。这场静默的变革终将抵达,但抵达的方式可能比技术乐观主义者预期的更曲折,也比保守派想象的更深远。

免责声明:

凡本公众号注明“来源:XXX(非智车科技)”的作品,均转载自其它媒体,转载目的在于传递和分享更多信息,并不代表本平台赞同其观点和对其真实性负责,版权归原作者所有,如有侵权请联系我们删除。

相关推荐