本研究提出了MiMo-7B模型,通过优化预训练和后训练阶段,显著提升了推理能力和任务性能,超越了更大模型。
本研究提出了一个评估软提示可解释性的理论框架,发现现有方法未能满足可解释性标准,并探索了优化训练提示的新方法,揭示了可解释性与任务性能之间的权衡。
本研究提出了AgentDropout方法,旨在提高基于大语言模型的多智能体系统的通信效率和任务性能。通过优化邻接矩阵,识别并消除冗余代理,实验结果表明,该方法使令牌消耗降低21.6%,任务表现提升1.14,验证了其有效性。
本文提出了一种好奇心扩散器,旨在解决机器人智能中神经网络模型的不稳定性和收敛性问题,从而降低实际应用中的安全风险。该方法通过随机网络蒸馏模块评估模型行为与训练数据的一致性,显著提升了任务性能。
本研究提出了xLSTM 7B,一种基于xLSTM架构的7亿参数大语言模型,旨在提高推理速度。该模型通过优化设计,显著提升了推理效率,同时保持了良好的任务性能,具有广泛的应用潜力。
选择合适的大语言模型(LLM)对特定任务至关重要。本文介绍了一种可重用的代码库,帮助用户系统比较多个开源LLM的输出,考虑任务性能、偏见、成本和泛化能力等因素。通过自动化测试框架,用户可以高效评估模型,优化工作流程,确保选择最佳模型。
本研究提出了SafeVLA算法,旨在解决视觉语言行动模型的安全挑战。该算法通过大型约束学习,在模拟环境中有效平衡安全性与任务性能,显著减少危险行为,并在安全性和任务表现上优于现有方法。此方法能够在多样化未知场景中推广学习到的安全约束,降低长尾风险。
本研究提出了一种新方法,通过大型语言模型生成多语言对话数据,有效解决开放领域对话模型的数据稀缺问题。该方法能够捕捉语言细微差别,某些任务的表现超过人类众包工作者,展现出良好的应用前景。
本研究提出了ARM4R自回归机器人模型,旨在解决机器人领域中有效表示和昂贵标注数据的问题。通过对人类视频学习的低级4D表示进行预训练,实现了高效的迁移学习,实验结果表明其在多种环境下的任务性能得到了提升。
本研究探讨大型语言模型中间层的潜力,认为中间层能够编码更丰富的特征,从而提升多种任务的性能。通过建立统一的表示质量度量框架,挑战了对最终层的传统重视,为模型分析与优化提供了新思路。
本研究探讨了多语种自然语言处理中的英语角色,指出其在任务性能与语言理解之间存在目标不一致,建议应重视增强语言理解,而非单纯依赖英语提升任务性能。
本研究提出生成价值学习(GVL),旨在解决智能机器人在不同任务中的时间进度预测问题。GVL利用视觉语言模型的知识,能够有效进行零-shot和少-shot的价值预测,显著提升300多个实际任务的预测性能。
本研究提出DroidSpeak框架,旨在提高多智能体系统中大型语言模型的通信效率,尤其是在处理长上下文时。通过引入中间数据,通信速度提升了2.78倍,同时保持了任务性能,为高效多智能体系统的构建开辟了新路径。
本研究提出CLAD方法,通过对比学习与对抗解耦相结合,解决了任务导向语义通信中的隐私与性能问题,显著提升了任务性能和隐私保护。
本研究提出了一种新的对抗约束策略优化(ACPO)方法,旨在平衡强化学习中的任务性能与约束满足。实验结果显示,该方法在安全健身房和四足动物移动任务中优于常用基线。
人工智能中的多模态学习迅速发展,Ovis 1.6 通过视觉嵌入表对齐视觉和文本数据,解决嵌入不一致问题。在多项测试中表现优异,展示了其在复杂任务中的潜力。
本研究将移动边缘计算与基础模型结合,通过仿真器-适配器架构提升设备任务性能,节省计算资源,优化任务,并引入资源分配机制。采用多智能体强化学习验证方法的实用性和扩展性,为模型部署提供新视角。
本文介绍了一种通过任务重新标记的方法,提高任务性能。作者使用AirDialogue在航班预订任务上评估了该方法,结果表明其在任务成功率方面优于现有技术方法7%。
研究发现,代理人通过增加内部成本来权衡总效用和任务性能,实现有效控制。这项工作为大脑和机器在高效但受计算限制的控制方面提供了新的合理计算基础。
本文比较了常规分类度量指标和更具特异性的度量指标,并证明了归一化信息性度量是任务性能的简约基准。通过实验,发现归一化信息性度量最能捕捉到理想模型特征。同时,发布了一个Python版本的归一化信息性度量。
完成下面两步后,将自动完成登录并继续当前操作。