6月1日,元戎启行CEO周光在粤港澳大湾区车展“2025未来汽车先行者大会”上发表演讲,宣布元戎启行的VLA模型即将推向消费者市场。周光透露,该模型主打防御性驾驶,拥有四大核心功能,分别是空间语义理解、异形障碍物识别、文字类引导牌理解、语音控车,这些功能将随VLA模型的量产逐步释放。
元戎启行CEO 周光
VLA模型的四大核心功能,让AI汽车更全面地了解驾驶环境,准确预测潜在驾驶危险因素,显著提升辅助驾驶的安全性,成为复杂场景的六边形战士。
空间语义理解,相当于为AI汽车装上 “透视眼” 。专为破解桥洞通行、公交车遮挡视野等动静态驾驶盲区场景设计 ,全面还原、了解驾驶环境,精准破解盲区驾驶风险。
例如,在桥洞道转弯场景中,VLA模型能够识别转弯标识与前方桥墩,凭借强大的空间分析能力,它会理解左前方有盲区豁口,并执行“自车经过时需注意减速,避免突然出现的车辆或两轮车”的驾驶决策,避免碰撞风险,同时向用户展示其决策的思考过程。
VLA核心功能-空间语义理解
异形障碍物识别,如同“驾驶万事通”——对驾驶过程中出现的各类障碍物了如指掌,理解障碍物背后隐藏的驾驶动机,准确预测潜在危险因素,行驶更安全。
例如,驾驶中遇到载货三轮车,VLA模型首先识别出前方载具为三轮车,进一步分析后,得出障碍物具体类型为“载货三轮车”,结合实时路况信息,最后输出“前方为缓慢行驶的载货三轮车,请避让绕行,并保持横向安全距离”的驾驶决策行为。
VLA核心功能-异形障碍物识别
文字类引导牌理解,堪称 “路况翻译官”—— 让 AI 汽车不仅能 “看见” 道路标识,更能 “读懂” 文字背后的通行逻辑,让复杂路况决策如 “开卷考试” 般从容。
例如,面对左转待行区、可变车道、潮汐车道等 “动态规则路段”,VLA模型能够读懂字符与图标的含义,高效匹配实时路况。在多车道复杂路口选道直行的场景中,能够准确识别车辆前方的文字及图案标识牌,准确找到直行车道,并执行操作。
VLA核心功能-文字类引导牌理解
语音交互控车——摆脱“机械式”交互,成为“听劝好司机”,与用户高效交流,根据语音指令做出对应的驾驶决策,交互更拟人,体验更舒适。并且当用户意愿与导航信息相冲突时,VLA模型会优先采纳用户意愿。
例如,在拥堵道路通行时,VLA模型识别到右侧直行道路拥堵,且持续有两轮车从右侧车流中窜出,通过思考后,VLA模型考虑到驾驶的安全性,输出“贴左边行驶会更安全”的决策,并通过语言功能询问用户是否需要贴左边车沿行驶。当用户回复“贴左边行驶”时,VLA模型将直接控制车辆发起“车辆往左靠边行驶”的决策。
VLA核心功能-语音交互控车
目前,元戎启行已完成VLA模型的真实道路测试,首款搭载VLA模型的车型即将上市,预计今年将有超5款搭载元戎启行VLA模型的AI汽车陆续推入市场。其中,VLA模型将率先搭载在NVIDIA Thor芯片上,后续元戎启行还将通过技术优化,让VLA模型可以适配更多芯片平台。
元戎启行CEO周光表示:“VLA模型兼顾拟人跟安全,像我们自己开车一样自然,比人类更可靠。VLA模型投入市场后,将加速汽车产业的智能化转型,重新定义‘车轮上的文明’。”
更新时间:2025-06-05
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号