标签
大语言模型
相关的文章:本列表汇集了关于大语言模型的最新研究与应用,涵盖预训练学习、指令遵循能力、对话推理等多个方面,展示了大语言模型在各领域的广泛应用与发展潜力。
最新研究揭示云端大语言模型防护机制的成效与缺陷
新加坡大语言模型MERaLiON升级
大语言模型入门指南:动物视角解析核心技术 | 开源日报 No.618
ZJU-LLMs/Foundations-of-LLMs Foundations-of-LLMs 是一本系统讲解大语言模型基础知识和前沿技术的教材。 包含六章内容,涵盖传统语言模型、大语言模型架构演化、Prompt 工程等主题 每章以动物为背景,提高易读性并举例说明具体技术 提供相关论文列表,跟踪最新进展 定期更新,以响应开源社区和专家学者的建议 PDF...
《Foundations-of-LLMs》是一本关于大语言模型的教材,内容涵盖传统模型、架构演化和Prompt工程,易于阅读并定期更新,提供相关论文。ZLinq是高性能的LINQ实现,支持多平台。Gotify Android用于推送通知,rectg推荐优质Telegram群组。Fractureiser是传播于Minecraft项目的恶意软件。

比较多模态大语言模型与Python OCR工具:OCR准确性的机遇与挑战
Introduction Multimodal LLMs create new opportunities for extracting text from difficult images. But what are the pros and cons? How do Deepseek, Qwen, Gemini, and ChatGPT compare to traditional...
多模态大语言模型(LLMs)在图像文本提取方面表现优异,但成本高、速度慢且需要强大硬件。传统OCR工具如Tesseract轻便快速,但准确性较低。比较显示,Gemini和Deepseek在准确性上优于传统工具,但复杂性和部署挑战较大。选择应根据具体目标而定。

SPD:大语言模型高效张量并行的同步点丢弃技术
With the rapid expansion in the scale of large language models (LLMs), enabling efficient distributed inference across multiple computing units has become increasingly critical. However,...
随着大语言模型的快速发展,分布式推理中的通信开销成为主要挑战。我们提出了一种新技术Sync-Point Drop(SPD),通过选择性减少注意力输出的同步,降低通信开销。SPD在保持模型准确性的同时,有效缓解了通信瓶颈,实现了约20%的推理延迟减少,准确率下降不足1%。

跨语言旅行:基准测评多模态大语言模型中的跨语言一致性
本研究针对多模态大语言模型在不同语言间表现一致性不足的问题,提出了新的基准KnowRecall和VisRecall。KnowRecall专注于评估15种语言中关于全球地标的文化和历史问题的知识一致性,而VisRecall则通过描述地标外观在9种语言中检验视觉记忆一致性。实验结果显示,当前最先进的多模态大语言模型仍然难以实现跨语言一致性,强调了开发更具多语言和文化意识模型的必要性。
本研究提出了KnowRecall和VisRecall基准,评估多模态大语言模型在15种语言中对全球地标知识和视觉记忆的一致性。结果表明,现有模型在跨语言一致性方面不足,需要开发更具多语言和文化意识的模型。