DeeR-VLA:多模态大语言模型的动态推理以提高机器人执行效率
原文中文,约300字,阅读约需1分钟。发表于: 。该研究解决了多模态大语言模型(MLLMs)在机器人平台上计算和内存限制的问题。通过提出动态早退出框架(DeeR-VLA),该方法根据具体情境自动调整激活的MLLM规模,从而避免冗余计算。研究表明,DeeR在CALVIN机器人操作基准测试上,计算成本降低了5.2-6.5倍,GPU内存使用降低了2-6倍,同时保持了性能竞争力。
该研究提出了动态早退出框架(DeeR-VLA),旨在解决多模态大语言模型在机器人平台上的计算和内存限制问题。DeeR在CALVIN基准测试中实现了计算成本降低5.2-6.5倍,GPU内存使用减少2-6倍,同时保持了竞争力的性能。