标签

 大型语言模型 

相关的文章:

本列表汇集了关于大型语言模型的最新研究与应用,探讨其在复杂推理、自动化和生成式AI等领域的潜力与挑战。

这个“智能助手”帮助大型语言模型在文本与代码之间切换

The CodeSteer system could boost large language models’ accuracy when solving complex problems, such as scheduling shipments in a supply chain.

MIT研究人员开发了CodeSteer,一个智能助手,帮助大型语言模型(LLMs)在代码与文本生成之间切换,从而提高其在数学问题上的准确性。研究表明,CodeSteer显著提升了LLMs解决复杂任务的能力,未来将进一步优化提示过程。

这个“智能助手”帮助大型语言模型在文本与代码之间切换
原文英文,约1200词,阅读约需5分钟。发表于:
阅读原文

Point-3D LLM:研究令牌结构对大型语言模型3D场景理解的影响

Effectively representing 3D scenes for Multimodal Large Language Models (MLLMs) is crucial yet challenging. Existing approaches commonly only rely on 2D image features and use varied tokenization...

有效的3D场景表示对多模态大型语言模型至关重要。本文比较了视频和点云表示,提出了一种结合3D点云特征的新方法,显著提升了性能。实验结果表明,经过巧妙采样和排序的点基结构在多个3D理解基准上表现优异,能够与视频基结构相媲美。

Point-3D LLM:研究令牌结构对大型语言模型3D场景理解的影响
原文英文,约300词,阅读约需1分钟。发表于:
阅读原文

自反性不确定性:大型语言模型是否了解其内部答案分布?

This paper was accepted at the Workshop on Reliable and Responsible Foundation Models (RRFMs) Workshop at ICML 2025. Uncertainty quantification plays a pivotal role when bringing large language...

本文探讨了在大型语言模型(LLMs)中量化不确定性的重要性,提出通过LLMs的输出空间来描述不确定性,并研究现代LLMs在总结思维时的表现,利用自反距离测量字符串与字符串分布的关系。

自反性不确定性:大型语言模型是否了解其内部答案分布?
原文英文,约200词,阅读约需1分钟。发表于:
阅读原文

大型语言模型与事件编码会推动开发者的复兴吗?

Between companies increasingly using large language models (LLMs) in their development process, such as Microsoft writing up to 30% of The post Will LLMs and Vibe Coding Fuel a Developer...

随着大型语言模型(LLMs)在软件开发中的普及,开发者的角色正在转变为管理AI代理。多代理系统成为新趋势,开发者需要具备技术与产品直觉。虽然AI提高了生产力,但也带来了可靠性挑战。成功的关键在于人机协作与技术深度的平衡。

大型语言模型与事件编码会推动开发者的复兴吗?
原文英文,约900词,阅读约需4分钟。发表于:
阅读原文

演讲:AI代理与大型语言模型:推动下一波自动化浪潮

The panelists demystify AI agents and LLMs. They define agentic AI, detail architectural components, and share real-world use cases and limitations. The panel explores how AI transforms the SDLC,...

本次网络研讨会讨论了大型语言模型(LLMs)和AI代理的最新进展。专家们分析了AI代理的定义及其与传统AI应用的区别,探讨了其在知识工作自动化中的应用。尽管AI代理在某些领域表现良好,但仍面临准确性和偏见等挑战。未来,AI代理将在企业中发挥更大作用,推动多代理系统的发展。

演讲:AI代理与大型语言模型:推动下一波自动化浪潮
原文英文,约8300词,阅读约需31分钟。发表于:
阅读原文

研究可能导致大型语言模型在复杂推理方面表现更佳

Researchers developed a way to make large language models more adaptable to challenging tasks like strategic planning or process optimization.

麻省理工学院的研究人员提出了一种“测试时训练”方法,通过临时更新大型语言模型(LLMs)的参数,显著提高其在复杂推理任务中的准确性,最多可提升六倍。这种方法结合上下文学习,使模型在医疗诊断等需要逻辑推理的应用中更具灵活性。研究表明,更新模型参数能有效提升性能,未来目标是开发能够自动选择最佳学习策略的LLM。

研究可能导致大型语言模型在复杂推理方面表现更佳
原文英文,约1000词,阅读约需4分钟。发表于:
阅读原文

围绕大型语言模型(LLMs)的一切仍充满魔力与美好愿景

对人工智能的大部分批评似乎来自那些尚未完全理解 MCP、工具等当前发展状况的开发人员,他们只是简单地调用大语言模型(LLM)的 API 调用,而没有进行更深入的思考

大型语言模型(LLMs)引发了不同看法,有人认为其有效,有人则认为无用。讨论指出,缺乏对使用情况和专业水平的了解导致体验差异。尽管存在炒作,实际效果往往不如预期,使用者需保持批判性思维。

原文中文,约1900字,阅读约需5分钟。发表于:
阅读原文

大型语言模型:自学路线图

A complete beginner’s roadmap to understanding and building with large language models explained simply and with hands-on resources.

大型语言模型(LLM)在人工智能领域取得显著进展,能够生成类人文本。市场需求推动其快速增长,预计到2030年市场规模将达361亿美元。学习LLM需掌握基础知识、架构、应用及优化技术,以深入理解其理论与实践。

大型语言模型:自学路线图
原文英文,约1600词,阅读约需6分钟。发表于:
阅读原文

播客:Mandy Gu谈生成性AI(GenAI)的实施、用户画像及大型语言模型(LLMs)的采用

In this podcast, Mandy Gu from Wealthsimple discusses how to establish AI programs in organizations and implement Generative AI (GenAI) initiatives, and the relationship between user profiles and...

Srini Penchikala与Mandy Gu讨论了生成性AI和大型语言模型(LLMs)的实际应用。Mandy分享了她在Wealthsimple推动AI项目的经验,包括基础设施建设、内部工具和LLM网关,以提升员工生产力和客户体验。她强调了不同用户类型对LLM采用的影响,并指出教育和培训对员工适应新技术的重要性。

播客:Mandy Gu谈生成性AI(GenAI)的实施、用户画像及大型语言模型(LLMs)的采用
原文英文,约4400词,阅读约需16分钟。发表于:
阅读原文

通过信心标记学习路由大型语言模型

Large language models (LLMs) have demonstrated impressive performance on several tasks and are increasingly deployed in real-world applications. However, especially in high-stakes settings, it...

大型语言模型(LLMs)在多种任务中表现优异,但在高风险环境中,了解其输出的可靠性至关重要。本文探讨了LLMs如何有效表达答案的信心,并提出了一种轻量级训练策略Self-REF,通过引入信心标记来提升答案准确性。研究表明,信心标记显著改善了后续任务中的路由和拒绝学习效果。

通过信心标记学习路由大型语言模型
原文英文,约200词,阅读约需1分钟。发表于:
阅读原文