标签

 大型语言模型 

相关的文章:

本列表汇集了关于大型语言模型的最新研究与应用,涵盖从模型训练到实际应用的多种技术与案例,助力深入理解这一前沿领域。

从人工智能到大型语言模型与多模态计算的旅程 - 1 - 什么是人工智能及其如何演变为大型语言模型

Free Resources Free Apache Iceberg Course Free Copy of “Apache Iceberg: The Definitive Guide” 2025 Apache Iceberg Architecture Guide How to Join the Iceberg Community Iceberg Lakehouse...

AI生成摘要 自1956年提出以来,人工智能经历了从符号AI到机器学习、深度学习,再到大型语言模型(LLMs)的多个发展阶段。LLMs如GPT-4能够生成文本、编程和翻译,但在记忆和推理方面仍存在局限。未来的AI将通过增强LLMs的能力,实现更复杂的决策和行动。

从人工智能到大型语言模型与多模态计算的旅程 - 1 - 什么是人工智能及其如何演变为大型语言模型
原文英文,约700词,阅读约需3分钟。发表于:13 小时前
阅读原文

你在使用大型语言模型吗?以及一些播客推荐

Right now, I am using LLMs to (a few examples): Translation Given the transcript and/or script of an episode of my podcasts, generate a summary (show notes) for the episode Generate fluffy or...

AI生成摘要 作者利用大型语言模型(LLMs)进行翻译、摘要生成、要点提取、文本清理、图像文字转录和编程练习,但未使用LLMs生成图像或撰写博客。推荐收听相关播客。

你在使用大型语言模型吗?以及一些播客推荐
原文英文,约300词,阅读约需2分钟。发表于:17 小时前
阅读原文

SeedLM:将大型语言模型权重压缩为伪随机生成器的种子

Large Language Models (LLMs) have transformed natural language processing, but face significant challenges in widespread deployment due to their high runtime cost. In this paper, we introduce...

AI生成摘要 大型语言模型(LLMs)在自然语言处理领域取得了突破,但因运行成本高而难以广泛应用。本文提出了一种新颖的后训练压缩方法SeedLM,通过伪随机生成器的种子编码和压缩模型权重,利用线性反馈移位寄存器生成随机矩阵,结合压缩系数重构权重块。SeedLM减少内存访问,提升内存密集型任务的速度,且无需校准数据,适用于多种任务。实验表明,SeedLM在4位和3位压缩下的零-shot准确率与最先进方法相当,并在FPGA测试中显示出显著加速效果。

SeedLM:将大型语言模型权重压缩为伪随机生成器的种子
原文英文,约200词,阅读约需1分钟。发表于:1 天前
阅读原文

从训练到推理:网络数据在大型语言模型中的新角色

Data has always been key to LLM success, but it's becoming key to inference-time performance as well.

AI生成摘要 数据在大型语言模型的推理中至关重要。AI公司通过实时网络数据提升模型的准确性和适应性,推动动态推理的发展。高质量的数据源和实时信息整合将成为未来AI竞争的关键,帮助模型应对复杂问题。

从训练到推理:网络数据在大型语言模型中的新角色
原文英文,约1200词,阅读约需5分钟。发表于:2 天前
阅读原文

大型语言模型作为欺骗代理:基于角色的提示如何在拼图任务中引发语义模糊

本研究解决了当前大型语言模型(LLMs)在生成拼图任务时利用语义模糊性进行误导行为的问题。通过比较不同提示方式下生成的拼图,这项研究揭示了直接对抗性提示显著增加了语义模糊性,进而加大了认知负荷,降低了解题公平性。这一发现为理解LLMs的新兴代理特质提供了重要见解,并强调了在教育技术和娱乐领域安全部署自主语言系统的伦理考量。

AI生成摘要 本研究探讨了大型语言模型在拼图任务中利用语义模糊性的问题,发现对抗性提示增加了认知负荷,降低了解题公平性,并强调了伦理考量。

原文中文,约200字,阅读约需1分钟。发表于:2 天前
阅读原文

大型语言模型社交模拟是一种有前途的研究方法

本研究解决了目前社会科学家对大型语言模型(LLM)社交模拟应用的低采用率问题,提出通过实现五个可解决的挑战来获取其潜力。研究表明,这些模拟能用于心理学、经济学、社会学和市场营销等领域的探索性研究,随着技术的发展,开发可迭代的概念模型和评估方法将进一步推动其广泛应用。

AI生成摘要 本研究分析了社会科学家对大型语言模型(LLM)在社交模拟应用中的低采用率,并提出了解决五个挑战以充分发挥其潜力。模拟技术在心理学、经济学等领域的应用前景广阔,技术进步将推动其普及。

原文中文,约300字,阅读约需1分钟。发表于:2 天前
阅读原文

大型语言模型在科学文献和引用实践中的内化程度有多深?

本研究探讨了大型语言模型(LLMs)在科学研究过程中如何影响引用实践,尤其是在文献发现和引用过程中。研究发现,LLMs会系统性地强化马太效应,通过优先引用高被引论文,尽管不同领域之间存在显著的变化。该结果显示LLMs在引用选择上的偏好可能重塑引用实践,进而影响科学发现的进程。

AI生成摘要 本研究分析大型语言模型(LLMs)对科学研究引用实践的影响,发现LLMs加剧了马太效应,倾向于优先引用高被引论文,并且不同学科之间存在显著差异。这可能会重塑引用实践,进而影响科学发现的进程。

原文中文,约300字,阅读约需1分钟。发表于:2 天前
阅读原文

大型语言模型中的认知记忆

本文探讨了大型语言模型(LLMs)中的记忆机制,强调其在丰富上下文响应、减少幻觉和提高效率方面的重要性。研究将记忆分为感知、短期和长期记忆,并提供了对这些记忆类型的分类、管理和应用的详细分析,揭示了记忆机制在未来研究中的重要性。

AI生成摘要 本文探讨了大型语言模型中的记忆机制,强调其在丰富上下文响应、减少幻觉和提高效率方面的重要性。研究将记忆分为感知、短期和长期记忆,并分析了这些记忆类型的管理与应用,指出其在未来研究中的重要性。

原文中文,约200字,阅读约需1分钟。发表于:2 天前
阅读原文

叙事工作室:使用大型语言模型和蒙特卡罗树搜索进行视觉叙事探索

本研究解决了当前交互式叙事中线性流程的限制,通过提出叙事工作室这一新型浏览器环境,允许用户从故事中的指定点进行分支探索。该方法结合了大型语言模型和蒙特卡罗树搜索,能够根据用户定义的标准自动扩展有前途的叙事路径,从而实现更丰富、多样的故事发展。

AI生成摘要 本研究提出了一种叙事工作室,旨在克服交互式叙事的线性限制。通过结合大型语言模型和蒙特卡罗树搜索,用户可以从特定节点分支,自动探索多样的故事路径。

原文中文,约200字,阅读约需1分钟。发表于:2 天前
阅读原文

大型语言模型中的复杂推理生成评估

本研究解决了大型语言模型(LLMs)是否真正具备推理能力的关键问题,提出了一种名为KUMO的生成评估框架,该框架结合LLMs与符号引擎,动态生成多样的推理任务以评估其推理能力。研究结果显示,许多LLMs在简单推理任务上的表现超过了大学生水平,而在复杂推理挑战中则达到了大学生的表现,证明KUMO作为评估LLMs推理能力的重要工具的有效性。

AI生成摘要 本研究提出KUMO框架,结合大型语言模型与符号引擎,动态生成推理任务以评估推理能力。结果表明,许多大型语言模型在简单推理任务上超越大学生,而在复杂任务中表现相当,验证了KUMO的有效性。

原文中文,约300字,阅读约需1分钟。发表于:2 天前
阅读原文