本研究提出了自然语言模型(NatureLM),有效解决了科学领域模型训练的独立性和跨领域整合不足的问题。该模型在药物发现和新材料设计等应用中表现优异,显著提升了性能。
研究表明,GPT-4 Turbo能够在少样本条件下进行视觉模仿学习,将视觉信息转化为动作序列,其表现优于传统模仿学习方法。这为自然语言模型在特定任务中的应用提供了新思路。
英国政府官网GOV.UK与Kin + Carta及Google Cloud合作,升级搜索功能,利用自然语言模型提高搜索结果的准确性,用户点击相关结果增加14%。此举改善了政府信息的获取和公众服务。
本文介绍了一种通过fine-tuning使用世界模型的方法,以提高大型自然语言模型在推理和规划中的性能。实验证明该方法在18项下游任务上能够显著提升LM的表现,尤其是在1.3B和6B的小型LM上。
这篇文章介绍了一种名为“Keypoint Action Tokens”(KAT)的框架,它利用现成的基于文本的Transformers模型,进行少量样本的视觉模仿学习。KAT框架在将视觉关键点观察转换成动作轨迹方面表现出色,性能与或优于现有技术。KAT为自然语言模型在任务中的重新应用提供了新途径。
通过引入ToolLLM,展示了它在增强自然语言模型的规划和推理能力方面的影响。使用ChatGPT创建指导数据集ToolBench,并使用深度优先搜索决策树扩展搜索空间,获取有效的解决方案路径。通过微调后得到ToolLLaMA,评估器ToolEval显示其在执行复杂指令和推广到未见过的API方面表现出卓越能力。设计了神经API检索器为每个指令推荐适当的API,省去了手动选择API的步骤。
ToolLLM是一个通用工具使用框架,可以增强自然语言模型的规划和推理能力。它使用ChatGPT创建ToolBench数据集,并使用DFSDT扩展搜索空间,以获取解决方案路径。通过微调LLaMA得到ToolLLaMA,并使用ToolEval评估其在执行复杂指令和推广到未见过的API方面的能力。此外,还设计了一个神经API检索器,简化了选择API的步骤。
本文研究了无监督原始数据改善自然语言模型预训练的方法,提出了三种替代BERT的预训练目标,并介绍了自监督预训练任务与下游应用结构对齐的方法,展示了在多个任务上的性能提升。
完成下面两步后,将自动完成登录并继续当前操作。