标签

 大语言模型 

相关的文章:

本列表页提供关于大语言模型的研究综述和应用探索,包括自动语音识别、3D任务、网络攻击等内容。同时介绍了数据操作统一框架等相关技术。

RefChecker:基于引用的细粒度幻觉检查器和大语言模型基准

原文约400字,阅读约需1分钟。发表于:

利用 Claim-Triplets 框架探测大型语言模型中的幻觉,并展示出相较于其他粒度如回复、句子和子句级别的声明,claim-triplets 在幻觉检测方面表现出更好的性能。

本文介绍了自动细粒度幻觉检测任务和一个新的综合分类法。研究结果显示ChatGPT和Llama 2-Chat的输出中有60%和75%的幻觉,其中大多数属于未被充分研究的类别。为了解决这个问题,研究者训练了FAVA,一个通过合成数据生成来检测和纠正细粒度幻觉的检索增强的语言模型。在基准测试中,FAVA在细粒度幻觉检测方面明显优于ChatGPT,且提高了语言模型生成文本的准确性。

相关推荐 去reddit讨论

映射大语言模型的思维 [译]

原文约3900字,阅读约需10分钟。发表于:

今天,我们在理解 AI 模型内部机制方面取得了重大突破。我们已经识别出数百万个概念在 Claude Sonnet(一种我们部署的大语言模型)中的表示方式。这是首次对现代生产级大语言模型的内部进行详细研究。这一发现有助于未来提升 AI 模型的安全性。

研究人员通过内部观察发现AI模型中数百万个概念的表示方式,包括金门大桥和抽象概念,这些发现有助于提高模型的安全性。研究人员希望利用这些发现来监控危险行为、去偏见和改进其他安全技术。他们还发现了与阿谀奉承赞美相关的功能。然而,仍需进一步研究模型的表示和提高安全性。

映射大语言模型的思维 [译]
相关推荐 去reddit讨论

大语言模型驱动的文本到图像生成的实证研究与分析

原文约300字,阅读约需1分钟。发表于:

本研究探讨使用大型语言模型作为文本编码器,在文本到图像生成中提高语言理解能力,并提出了一种高效三阶段训练流程以整合已有的文本到图像模型和大型语言模型,通过轻量级适配器实现快速训练,并证明实验结果在多语言和长输入环境下获得了优秀的图像生成质量。

利用大型语言模型 (LLM) 从文本提示中提取关键组件,包括前景对象的边界框坐标、各个对象的详细文本描述和简洁的背景上下文。通过两个阶段的操作,将这些组件布局到图像生成模型中。经由用户研究验证了方法在从错综复杂的文本输入中生成连贯详细场景方面的功效。

相关推荐 去reddit讨论
相关推荐 去reddit讨论

妙语连珠,文采飞扬——使用 AWS 自研芯片,快速构建 LLama 3 等大语言模型应用

原文约8200字,阅读约需20分钟。发表于:

在本文中,我们将介绍如何采用 AWS Inf2 实例,在 AWS 自研芯片上一键部署多个业界领先的大语言模型,方便企业业务人员进行测试,同时开放出 API 接口,方便进行性能基准测试以及下游的应用程序的调用。

随着AIGC/GenAI的兴起,LLM/SD等模型在文本/图像/视频生成和多模态/复杂推理等场景中得到广泛应用。AWS推出的Inf2实例提供高效部署大型语言模型的解决方案。文章介绍了Meta-Llama-3-8B、Mistral-7B-Instruct-v0.2和CodeLlama-7b-Instruct-hf等语言模型,并提供了部署方案和API接口。AWS Neuron SDK和Optimum Neuron是部署和推理大型语言模型的工具,Text Generation Inference和HuggingFace Chat UI用于部署和服务大型语言模型。文章还介绍了API接口和性能测试。

妙语连珠,文采飞扬——使用 AWS 自研芯片,快速构建 LLama 3 等大语言模型应用
相关推荐 去reddit讨论

WisPerMed 在 BioLaySumm 中的应用:将自回归大语言模型调整为科学文章的简化总结

原文约300字,阅读约需1分钟。发表于:

本研究介绍了 WisPerMed 团队在生物医学领域的自动文献概述共享任务中的工作,通过精细调整和使用 BioMistral 和 Llama3 模型,从复杂的科学文本中生成面向非专业人士的概述,最终在可读性、准确性和相关性方面实现了显著的性能提升。

本研究使用八个大型语言模型在六个数据集和四个不同的摘要任务上进行评估,结果显示最佳适应的大型语言模型在完整性和正确性方面优于人工摘要。研究还分析了自然语言处理指标与医生评分的相关性,以提高对指标与医生喜好的理解。研究表明大型语言模型在临床文本摘要任务中超越人工专家,减轻文档负担,使医生能够更多关注个性化患者护理和其他医学环节。

相关推荐 去reddit讨论

再次聆听并选择正确答案:大语言模型下自动语音识别的新范式

原文约400字,阅读约需1分钟。发表于:

该论文提出了一种新的 ASR 生成性错误纠正范式 ClozeGER,通过引入一种多模态 LLM(即 SpeechGPT)来改善纠正输出的忠实度,然后将 GER 重新设计为带有 logits 校准的 cloze 测试,以消除输入信息冗余并简化 GER 过程。实验证明,ClozeGER 在 9 个流行的 ASR 数据集上取得了新的突破。

本研究探讨了大型语言模型(LLMs)在医学转录中提高自动语音识别(ASR)系统准确性的潜力。通过使用PriMock57数据集对ASR生成的转录进行改善,发现LLMs特别是Chain-of-Thought(CoT)提示技术在医学转录领域取得了卓越表现。这些发现为改进医学ASR系统、提高医疗保健领域的病患记录的准确性和可靠性带来巨大的希望。

相关推荐 去reddit讨论

LLMs 跨入 3D 世界:多模态大语言模型对 3D 任务的调查与元分析

原文约600字,阅读约需2分钟。发表于:

大型语言模型(LLMs)与三维空间数据(3D-LLMs)的整合不断进步,为理解和与物理空间互动提供了前所未有的能力。本文综述了使 LLMs 能够处理、理解和生成 3D 数据的方法,强调了其在上下文学习、逐步推理、开放词汇能力和广泛的世界知识等独特优势,并强调了它们在体现人工智能系统中显著促进空间理解和互动方面的潜力。我们的研究涵盖了从点云到神经辐射场(NeRFs)等各种 3D 数据表示,分析了它们与 LLMs 的整合在 3D 场景理解、字幕生成、问答和对话,以及基于 LLMs 的空间推理、规划和导航等任务中的应用,同时还对整合 3D 和语言的其他方法进行了简要回顾。本文的元分析显示取得了显著进展,但也强调了利用 3D-LLMs 的全部潜力需要创新方法的必要性。因此,本文旨在为未来的研究规划一个探索和扩展 3D-LLMs 在理解和与复杂 3D 世界互动方面能力的道路。为了支持这项综述,我们建立了一个项目页面,其中整理和列出了与我们的主题相关的论文。

这篇综述介绍了大型语言模型(LLMs)与三维空间数据(3D-LLMs)的整合进展,以及它们在理解和与物理空间互动方面的潜力。文章讨论了不同的方法,使LLMs能够处理、理解和生成3D数据,并分析了它们在各种任务中的应用。文章强调了创新方法的必要性,并为未来的研究规划了一个探索和扩展3D-LLMs能力的道路。

相关推荐 去reddit讨论

AI大语言模型再陷入危机———新型网络攻击LLMjacking深度剖析

原文约8400字,阅读约需20分钟。发表于:

本文详细阐述了Sysdit威胁研究团队(TRT)近期发现的一种针对云端大语言模型服务的新型威胁。

本文介绍了LLMjacking,一种针对云端大语言模型服务的新型威胁。攻击者利用窃取的云服务凭证对托管在云端的大语言模型执行恶意操作,可能导致高额费用。文章提供了检测和防御此类威胁的关键策略。

相关推荐 去reddit讨论

Bedrock 大语言模型智能解题

原文英文,约900词,阅读约需4分钟。发表于:

关于学生使用大语言模型和其他人工智能聊天机器人的好处和风险的讨论一直在进行。虽然大语言模型如何融入教育以提高学习成果,但正确使用 LLM 提升解题效率的重要性毋庸置疑。在这篇博客中,我们将以数学与语言学习的三个问题为例探讨大语言模型的准确性。

这篇文章讨论了学生使用大语言模型和其他人工智能聊天机器人的好处和风险。介绍了Amazon Bedrock的功能和优势,以及Claude 3在数学和语言学习中的应用。文章总结了Claude在解答数学和GRE语言问题方面的准确性和详细讲解能力。

Bedrock 大语言模型智能解题
相关推荐 去reddit讨论