标签

 model 

相关的文章:

本列表汇集了关于模型技术的最新研究与应用,涵盖大型语言模型、AI助手开发及模型评估等多个领域,助您深入了解前沿动态。

发表于:
阅读原文
发表于:
阅读原文

使用 Docker Model Runner 本地构建生成式 AI 应用

Docker Model Runner is a new feature of the Docker Desktop designed to streamline the process of running and testing The post Build GenAI Applications Locally With Docker Model Runner appeared...

Docker Model Runner 是 Docker Desktop 的新功能,旨在简化本地运行和测试 AI 模型的过程。它通过将推理引擎嵌入 Docker Desktop,提升性能并优化用户体验,支持从 Docker 和 Hugging Face 拉取模型,特别在 Apple 硅系统上实现 GPU 加速。

使用 Docker Model Runner 本地构建生成式 AI 应用
原文英文,约900词,阅读约需4分钟。发表于:
阅读原文

LLM-Explorer: A Large Language Model-Driven Plugin for Enhanced Reinforcement Learning Policy Exploration

本研究解决了现有强化学习策略探索方法在任务特定特征考量上的不足。我们提出的LLM-Explorer利用大型语言模型分析当前学习状态,生成任务特定的探索策略,从而动态调整策略探索过程。实验结果显示,该方法在Atari和MuJoCo基准测试中平均提升表现达37.27%。

本研究提出了LLM-Explorer,利用大型语言模型分析学习状态,生成特定任务的探索策略并动态调整。实验结果显示,该方法在Atari和MuJoCo基准测试中平均提升表现37.27%。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

Set Language Model: A Permutation-Invariant Language Model

本文探讨了当前大规模语言模型在处理输入顺序上的脆弱性,导致模型在选择时表现出顺序偏差。我们提出了一种新颖的架构调整——集合语言模型(Set-LLM),能够处理混合集合文本输入,并保证排列不变性,从而消除了顺序敏感性,进一步提升了模型在多个应用场景中的鲁棒性和准确性。

本文探讨了大规模语言模型在处理输入顺序时的脆弱性,导致顺序偏差。提出了一种新架构——集合语言模型(Set-LLM),旨在处理混合集合文本输入,消除顺序敏感性,从而提升模型的鲁棒性和准确性。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文
发表于:
阅读原文

Reinforcement Learning and Distillation: Understanding Accuracy and Capability in Large Language Model Inference

本研究解决了强化学习与蒸馏在大型语言模型推理中对准确性与能力影响的差异。通过深入分析,我们发现强化学习不能改善模型能力,因其主要关注简单问题的准确性,而蒸馏则能在引入新知识时有效提升能力。这些发现有助于更好地理解语言模型的推理机制。

本研究探讨了强化学习与蒸馏对大型语言模型推理的影响。结果显示,强化学习提高了准确性但未增强能力,而蒸馏则有效引入新知识,提升了模型能力。这有助于理解语言模型的推理机制。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

CAD-Coder: An Open Source Visual-Language Model for Computer-Aided Design Code Generation

本研究解决了当前计算机辅助设计(CAD)模型生成效率低下与用户专业知识要求高的问题。提出的CAD-Coder是一个专门微调的视觉-语言模型,能够直接从视觉输入生成可编辑的CAD代码,显著提高了生成的代码准确性和适应性,并表现出了在真实图像上生成代码的能力。这一研究成果有望简化工程师和设计师的CAD工作流程。

本研究提出CAD-Coder,一个视觉-语言模型,能够从视觉输入直接生成可编辑的CAD代码,从而提高生成效率和准确性,简化工程师和设计师的工作流程。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

Mixture of Local Experts: Achieving Essentially Free Test-Time Training through Model Merging

本研究解决了当前混合专家模型由于训练和推理成本高而只能使用少量专家的问题。提出的测试时间模型合并(TTMM)方法可以大幅增加专家数量,并几乎不增加测试时间开销。研究表明,TTMM在使用更多专家时性能提升,且测试时间比传统测试时间训练(TTT)快100倍以上,为规模化测试时间训练提供了经济有效的解决方案。

本研究提出了一种测试时间模型合并(TTMM)方法,旨在解决混合专家模型因训练和推理成本高而只能使用少量专家的问题。TTMM显著增加了专家数量,并且测试时间比传统方法快100倍以上,为大规模测试提供了经济有效的解决方案。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文

Cost-Enhanced Monte Carlo Tree Search for Large Language Model-Assisted Planning

该研究解决了大语言模型(LLM)在成本敏感规划中的不足,提出了一种新的成本增强蒙特卡洛树搜索(CATS)方法,旨在将明确的成本意识引入LLM引导的规划中。实验表明,CATS相较于原始LLM在紧预算条件下表现更加优异,能够更有效地实现预算-aware 的决策制定。

该研究提出了一种新的成本增强蒙特卡洛树搜索(CATS)方法,以改善大语言模型在成本敏感规划中的不足。实验结果表明,CATS在紧预算条件下优于原始LLM,更有效地实现预算意识的决策。

原文英文,约100词,阅读约需1分钟。发表于:
阅读原文