说话就能控制左右快慢!理想汽车MindVLA大模型实测视频发布

zhiyongz 阅读: 2025-03-21 19:14:04 评论:0

快科技3月21日消息,今天下午,理想汽车详细介绍了MindVLA大模型与现有端到端+VLM大模型的区别,并公布了相关实测视频。按能力表现来看,MindVLA 模型加持下的汽车就像一个助手,能与用户沟通、理解用户意图,帮用户做更多事情。
比如,它可以在陌生车库漫游找车位直至自主完成泊车;可以按照驾驶员的“开快点、开慢点、左拐、右拐”等语音指令进行行动;可以在你发给它地标照片后,按图索骥找到你等等。理想汽车还表示,MindVLA是理想汽车下一代自动驾驶核心架构,使用了MindGPT作为语言基座,demo中的语音通过座舱的ASR后变成文字,输入给 MindVLA。
这一设计继承自 MindGPT 在语言理解与交互领域的优势能力(如语义解析、逻辑推理等),并针对自动驾驶场景进行了专项优化。这体现了智舱与智驾在功能层的协同创新,而非系统层的完全融合。未来,我们将持续探索多模态交互与驾驶决策的深度耦合,为用户提供更自然的“人车共驾”体验。
说话就能控制左右快慢!理想汽车MindVLA大模型实测视频发布
说话就能控制左右快慢!理想汽车MindVLA大模型实测视频发布
【本文结束】出处:快科技

部分内容源于互联网,请仔细甄别真实性!如涉及关于钱的内容,更请谨慎对待!网址:https://www.tashuo.net/articles/59607.html

可以去百度分享获取分享代码输入这里。
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

发表评论
搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容