标签

 大语言模型 

相关的文章:

本列表汇集了关于大语言模型的最新研究与应用,涵盖预训练学习、指令遵循能力、对话推理等多个方面,展示了大语言模型在各领域的广泛应用与发展潜力。

原文中文,约2300字,阅读约需6分钟。发表于:
阅读原文

最新研究揭示云端大语言模型防护机制的成效与缺陷

研究揭露主流AI平台防护漏洞:越狱攻击成功率高达92%,安全机制形同虚设。

一项研究指出,主流云端大语言模型平台存在严重安全漏洞,内容过滤和提示注入防御效果差异明显。复杂攻击手段层出不穷,平台需在安全与用户体验之间找到平衡。研究显示,角色扮演攻击能够绕过过滤系统,表明当前防护过于依赖关键词检测,需加强深度意图分析。

原文中文,约1200字,阅读约需3分钟。发表于:
阅读原文

新加坡大语言模型MERaLiON升级

(全球TMT2025年6月3日讯)在新加坡亚洲科技大会 (ATxSG) 旗舰活动亚洲科技峰会 (ATxSumm […]

新加坡在2025年亚洲科技峰会上发布了升级版MERaLiON大语言模型,并成立MERaLiON联盟,以提升东南亚的人工智能能力。该模型支持多语言,具备情感智能,适用于客服和社会服务等领域。联盟成员包括政府机构和科技企业,专注于多语言支持和健康洞察的应用开发。

新加坡大语言模型MERaLiON升级
原文中文,约600字,阅读约需2分钟。发表于:
阅读原文
发表于:
阅读原文
发表于:
阅读原文

大语言模型入门指南:动物视角解析核心技术 | 开源日报 No.618

ZJU-LLMs/Foundations-of-LLMs Foundations-of-LLMs 是一本系统讲解大语言模型基础知识和前沿技术的教材。 包含六章内容,涵盖传统语言模型、大语言模型架构演化、Prompt 工程等主题 每章以动物为背景,提高易读性并举例说明具体技术 提供相关论文列表,跟踪最新进展 定期更新,以响应开源社区和专家学者的建议 PDF...

《Foundations-of-LLMs》是一本关于大语言模型的教材,内容涵盖传统模型、架构演化和Prompt工程,易于阅读并定期更新,提供相关论文。ZLinq是高性能的LINQ实现,支持多平台。Gotify Android用于推送通知,rectg推荐优质Telegram群组。Fractureiser是传播于Minecraft项目的恶意软件。

大语言模型入门指南:动物视角解析核心技术 | 开源日报 No.618
原文中文,约900字,阅读约需3分钟。发表于:
阅读原文

比较多模态大语言模型与Python OCR工具:OCR准确性的机遇与挑战

Introduction Multimodal LLMs create new opportunities for extracting text from difficult images. But what are the pros and cons? How do Deepseek, Qwen, Gemini, and ChatGPT compare to traditional...

多模态大语言模型(LLMs)在图像文本提取方面表现优异,但成本高、速度慢且需要强大硬件。传统OCR工具如Tesseract轻便快速,但准确性较低。比较显示,Gemini和Deepseek在准确性上优于传统工具,但复杂性和部署挑战较大。选择应根据具体目标而定。

比较多模态大语言模型与Python OCR工具:OCR准确性的机遇与挑战
原文英文,约700词,阅读约需3分钟。发表于:
阅读原文

SPD:大语言模型高效张量并行的同步点丢弃技术

With the rapid expansion in the scale of large language models (LLMs), enabling efficient distributed inference across multiple computing units has become increasingly critical. However,...

随着大语言模型的快速发展,分布式推理中的通信开销成为主要挑战。我们提出了一种新技术Sync-Point Drop(SPD),通过选择性减少注意力输出的同步,降低通信开销。SPD在保持模型准确性的同时,有效缓解了通信瓶颈,实现了约20%的推理延迟减少,准确率下降不足1%。

SPD:大语言模型高效张量并行的同步点丢弃技术
原文英文,约200词,阅读约需1分钟。发表于:
阅读原文

跨语言旅行:基准测评多模态大语言模型中的跨语言一致性

本研究针对多模态大语言模型在不同语言间表现一致性不足的问题,提出了新的基准KnowRecall和VisRecall。KnowRecall专注于评估15种语言中关于全球地标的文化和历史问题的知识一致性,而VisRecall则通过描述地标外观在9种语言中检验视觉记忆一致性。实验结果显示,当前最先进的多模态大语言模型仍然难以实现跨语言一致性,强调了开发更具多语言和文化意识模型的必要性。

本研究提出了KnowRecall和VisRecall基准,评估多模态大语言模型在15种语言中对全球地标知识和视觉记忆的一致性。结果表明,现有模型在跨语言一致性方面不足,需要开发更具多语言和文化意识的模型。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文

面向大语言模型的联合分割框架:安全性、高效性与适应性

本研究解决了大语言模型在联合环境中部署时面临的数据隐私和计算需求问题。提出的FL-LLaMA框架通过引入高斯噪声和并行训练策略,显著提升了安全性与效率,并允许根据具体任务动态调整数据分区点。实验结果表明,FL-LLaMA在性能上与集中式LLaMA2相当,并在训练和推理速度上实现了显著提升。

本研究提出FL-LLaMA框架,旨在解决大语言模型在联合环境中的数据隐私和计算需求问题。通过引入高斯噪声和并行训练策略,提升了安全性和效率。实验结果表明,该框架的性能与LLaMA2相当,且训练和推理速度显著提高。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文