标签

 大型语言模型 

相关的文章:

本列表汇集了关于大型语言模型的最新研究与应用,涵盖从模型训练到实际应用的多种技术与案例,助力深入理解这一前沿领域。

DeepMind研究人员提出针对大型语言模型提示注入的防御措施

To prevent prompt injection attacks when working with untrusted sources, Google DeepMind researchers have proposed CaMeL, a defense layer around LLMs that blocks malicious inputs by extracting the...

谷歌DeepMind研究人员提出了CaMeL,旨在防止大型语言模型的提示注入攻击。CaMeL通过提取查询的控制和数据流,中和了67%的攻击。该方法结合传统软件安全原则,使用自定义Python解释器跟踪数据来源,确保操作符合权限限制。尽管在AgentDojo基准测试中表现良好,但仍需用户定义安全策略,可能导致用户疲劳。

DeepMind研究人员提出针对大型语言模型提示注入的防御措施
原文英文,约700词,阅读约需3分钟。发表于:
阅读原文

大型语言模型与Web3:新基准揭示哪种人工智能理解区块链

This is a Plain English Papers summary of a research paper called LLMs vs Web3: New Benchmark Reveals Which AI Gets Blockchain. If you like these kinds of analysis, you should join AImodels.fyi or...

研究人员开发了DMind基准,以评估大型语言模型(LLMs)在Web3领域的表现。该基准涵盖区块链、智能合约和去中心化金融等九个关键类别,旨在填补现有评估的空白。研究发现,尽管LLMs在许多任务中表现良好,但在Web3特定领域,尤其是安全漏洞和复杂机制分析方面仍面临挑战。

大型语言模型与Web3:新基准揭示哪种人工智能理解区块链
原文英文,约1900词,阅读约需7分钟。发表于:
阅读原文

人工智能因果分析师:大型语言模型代理自动化因果发现与推断

This is a Plain English Papers summary of a research paper called AI Causal Analyst: LLM Agent Automates Causal Discovery & Inference. If you like these kinds of analysis, you should join...

Causal-Copilot是一个基于大型语言模型的自动化因果分析系统,旨在简化因果分析流程,使非专业人士能够进行复杂分析。该系统集成多种因果发现和推断算法,支持大规模数据集处理,提高分析的可访问性和准确性。

人工智能因果分析师:大型语言模型代理自动化因果发现与推断
原文英文,约2300词,阅读约需9分钟。发表于:
阅读原文

从零开始编写自己的Llama 4大型语言模型

Large language models (LLMs) are at the forefront of modern artificial intelligence, enabling applications that can understand and generate human-like language. Meta's latest release, Llama 4,...

大型语言模型(LLMs)是现代人工智能的前沿,Meta最新发布的Llama 4在架构和功能上有显著进展。freeCodeCamp.org的课程将教你如何从零开始实现Llama 4,内容涵盖模型架构、令牌、注意机制和旋转位置嵌入,适合机器学习爱好者和开发者。

从零开始编写自己的Llama 4大型语言模型
原文英文,约400词,阅读约需2分钟。发表于:
阅读原文

大型语言模型在教育中的多语言表现偏差

本研究解决了大型语言模型(LLMs)在非英语教育环境中应用的有效性问题。通过评估多种语言中的教育任务表现,发现这些模型在较低资源语言上的表现欠佳且与训练数据量相关,强调在实际应用前应验证模型在目标语言上的表现。该研究为教育领域的多语言应用提供了重要的实证依据和建议。

本研究探讨了大型语言模型在非英语教育环境中的有效性,发现其在低资源语言上的表现较差,且与训练数据量相关,强调需验证模型在目标语言的表现,为多语言教育应用提供实证依据和建议。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文

洞察:在大型语言模型时代弥合学生与教师之间的差距

本研究针对AI及大型语言模型在教育中应用带来的学生与教师互动的减少问题,提出了INSIGHT这一概念验证工具。该工具通过分析学生向大型语言模型提出的问题,动态构建常见问题解答,以改善教师支持及个性化教学,从而提升教学效果和学习体验。

本研究提出INSIGHT工具,旨在解决AI和大型语言模型在教育中导致的师生互动减少问题。该工具通过分析学生提问,动态构建常见问题解答,以提升教师支持和个性化教学,从而改善教学效果和学习体验。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

HalluLens:大型语言模型幻觉基准

本研究针对大型语言模型(LLM)中常见的幻觉现象,提出了一种全面的幻觉基准,旨在建立统一的分类框架,以提升对幻觉的评估和研究。研究的主要贡献在于引入新的外部幻觉任务以及动态生成测试集,从而提高评估的鲁棒性和有效性。该工作的影响在于增强用户对生成式人工智能系统的信任和接受度。

本研究针对大型语言模型中的幻觉现象,提出了全面的幻觉基准和统一分类框架,以提升评估和研究的有效性。通过引入新任务和动态测试集,增强评估的鲁棒性,提升用户对生成式人工智能的信任。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文

利用大型语言模型摘要进行源代码主题建模

本研究解决了源代码理解中的主题建模问题,填补了自动识别有意义主题的空白。通过结合大型语言模型的摘要生成与主题建模技术,提出了一种新颖的方法。从实验结果来看,利用LLM生成的摘要提供了更可解释和语义丰富的代码结构表示,具有广泛的软件工程应用潜力。

本研究提出了一种新方法,将大型语言模型的摘要生成与主题建模相结合,以解决源代码理解中的主题建模问题。实验结果表明,该方法生成的摘要能够提供更具可解释性的代码结构表示,具有广泛的应用潜力。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

通过大型语言模型自动生成恶意软件包规则

本研究旨在解决现有安全工具依赖专家定义预设规则的问题,从而无法有效应对软件供应链攻击。作者提出了一种新工具RuleLLM,利用大型语言模型自动生成开源软件生态系统的规则。实验结果显示,RuleLLM在生成的763条规则中,精准度达到85.2%,召回率为91.8%,显著优于现有顶尖工具,且提出了11个类别和38个子类别的规则分类。

本研究提出了新工具RuleLLM,利用大型语言模型自动生成开源软件规则,解决了现有安全工具对专家规则的依赖。实验结果显示,RuleLLM生成的763条规则的准确率为85.2%,召回率为91.8%,优于现有工具。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文

微软原生1位大型语言模型有望为日常CPU带来高效的生成式人工智能

In a recent paper, Microsoft researchers described BitNet b1.58 2B4T, the first LLM to be natively trained using "1-bit" (technically, 1-trit) weights, rather than being quantized from a model...

微软研究人员推出了BitNet b1.58 2B4T,这是首个使用1位权重原生训练的大型语言模型。该模型在计算成本和硬件需求上显著低于全精度模型,同时在多项任务上表现相当。BitNet通过自定义的BitLinear层和量化技术,减小了模型大小并提高了训练稳定性。此外,微软还开发了专用推理库bitnet.cpp,以支持1位模型的高效推理。未来将探索更先进的技术和多语言能力。

微软原生1位大型语言模型有望为日常CPU带来高效的生成式人工智能
原文英文,约600词,阅读约需2分钟。发表于:
阅读原文