那个被你们骂“没技术”的车企,居然比华为更强了?

电车资讯 作者: XCP谢志敏 2024-07-05

当一个被你们骂“没有技术”的车企,先于华为全量推送无图NOA的时候,大家认为这家车企究竟是有技术还是没技术呢?

就在7月5日的理想智能驾驶夏季发布会上,理想正式宣布了一系列重大的驾驶辅助技术更新和产品更新推送计划,包括无图NOA全量推送,开启端到端+VLM早鸟计划等等。接下来,我们就一起看看,“没有技术”的理想究竟带来了什么新功能。

智能驾驶辅助大更新

发布会的重点无疑就是理想计划在7月份开始全量推送无图NOA,所有的理想AD Max用户都能收到无图NOA更新。

这次推送的无图NOA主要有4项升级点,分别是:

  1. 感知与理解能力提升:无图NOA摆脱了对先验信息的依赖,能够在全国范围内使用。

  2. 时空联合规划能力:提升了车辆对障碍物的避让和绕行能力,实现了横纵向空间的同步规划。

  3. 复杂路口选路能力:采用BEV视觉模型,提升了复杂路口的通行稳定性。

  4. 用户心理安全边界:通过高精度感知,提升了用户行车时的安全感。

与“有图NOA”相比,无图NOA不需要高精地图也能在城区使用NOA领航辅助。这并非说无图NOA就要比有图NOA更好,实际上无图NOA最大的意义就是在于避免高精地图供应商“卡脖子”,从而让处于没有高清地图的县城地区的用户也正常使用城区NOA,甚至在特殊的胡同窄路和乡村小路开启功能。

在这次更新中,得益于时空联合规划能力,车辆对障碍物的绕行和避让也更加丝滑,理论上在城市路况中规避非机动车、路人以及躲避修路等工况会有更好的表现。

另外,新无图NOA能实时感知变化的路沿、路面箭头标识和路口特征,并将车道结构和导航特征充分融合,提高路口通行的稳定性。

能够全量推送无图NOA,就标志着理想在智能驾驶领域的一次重大突破。对于所有用户来说,这就是好事,毕竟这意味着理想有能力有技术去做好驾驶辅助,往后的体验也会越来越好。

此外,理想还将在7月内推送全自动AES(自动紧急转向)和全方位低速AEB(自动紧急制动)。AES功能能够在车辆高速行驶时,自动紧急转向以避免碰撞,而全方位低速AEB则为低速挪车场景提供了更全面的安全保障。

端到端+VLM双系统,理想真搞技术

当然了,无图NOA只是理想智驾路线的其中一个节点,往后理想的智驾还会升级到端到端+VLM双系统的路线。两台系统分别对应不同的场景。

其中端到端模型将原本的分开的感知模型、规划模型结合起来,通过单一的端到端模型来同时实现感知和规划操作。

在将摄像头、激光雷达等传感器信息输入后,会通过主干网络来提取并融合特征信息并投影至BEV空间。此外理想还设计了记忆模块来记忆物体、道路等路面物体的时间和空间信息。除了传感器外,导航信息和车辆信息也会一并输入到模型中,并通过模型处理后解码出动态障碍物、道路结构和通用障碍物,并规划出行车轨迹。

用大家都能理解的话来说,就是在实际应用中端到端模型展现出更强大的通用障碍物理解能力、超视距导航能力、道路结构理解能力,以及更拟人的路径规划能力。

而VLM视觉语言模型,将Prompt(提示词)文本进行Tokenizer(分词器)编码,并将前视相机的图像和导航地图信息进行视觉信息编码,再通过图文对齐模块进行模态对齐,最终统一进行自回归推理,输出对环境的理解、驾驶决策和驾驶轨迹,传递给系统1(端到端)辅助控制车辆。

为智驾系统添加磨难的“Minecraft”

不管哪个智驾模型,想要打磨完善、避免被用户“臭骂”,那就必须拥有足够的数据来训练模型并考验当前智能驾驶的表现。和其它车企一样,为了达到这个目标理想也构建一个虚拟环境,并将驾驶辅助系统投放在里面进行学习和测试。

理想的世界模型在场景重建时会进行动静态分离,先静态环境进行重建,再进行动态物体重建和新视角生成,将两者结合生成一个3D的物理世界。同时里面的动态物体还可以被随意编辑和调整,让天气、光照、车流等条件均可被自定义改变,实现场景的部分泛化且更接近真实的场景。

编者说:

加码智能驾驶,加速智能驾驶迭代更新,无论是对用户、对理想自己都是好事,毕竟消费者和理想是相辅相成、缺一不可。而理想汽车的这一系列更新和推送计划,可以说是展现了其在智能驾驶领域的深厚技术积累,也体现了其对用户安全和驾驶体验的持续关注。随着无图NOA的全量推送和全新自动驾驶技术架构的发布,理想为用户带来更加安全、便捷和舒适的驾驶体验。

分享:
0
关注电动新车评,玩转电动车
评论59