标签

 大型语言模型 

相关的文章:

本列表汇集了关于大型语言模型的最新研究与应用,涵盖情感分析、知识图谱构建、自动问答系统及代码漏洞检测等多个领域,展示了其在各行业中的广泛应用潜力。

Mozilla与EleutherAI发布关于大型语言模型训练的开放数据集研究

原文英文,约500词,阅读约需2分钟。发表于:

Update: Following the 2024 Mozilla AI Dataset Convening, AI builders and researchers publish best practices for creating open datasets for LLM training.  Training datasets behind large language...

2024年Mozilla AI数据集会议后,研究者发布了开放数据集最佳实践,以提升大型语言模型训练的透明度和公平性。研究指出,数据来源不明会导致法律模糊,影响创新。为推动负责任的AI发展,需要在法律、技术和政策领域合作,制定开放数据集的处理和发布标准。

Mozilla与EleutherAI发布关于大型语言模型训练的开放数据集研究
相关推荐 去reddit讨论

开源大型语言模型能否用于德国肿瘤文档记录?-- 对泌尿科医生记录的评估

原文中文,约300字,阅读约需1分钟。发表于:

本研究针对德国肿瘤文档记录中的人工手动过程提出了改进方案,探索使用开源大型语言模型(LLMs)提升效率和可靠性。通过测试11种不同的LLM,在肿瘤诊断识别、ICD-10编码分配和首次诊断日期提取等任务中发现,7-12亿参数的模型表现出最佳的平衡性,并表明这些模型在临床文档记录中具有自动化潜力。

本研究改进了德国肿瘤文档记录的人工手动过程,探索了开源大型语言模型(LLMs)的应用。测试结果显示,参数在7-12亿的模型在肿瘤诊断、ICD-10编码和首次诊断日期提取方面表现最佳,展现了自动化的潜力。

相关推荐 去reddit讨论

桥接可视化与优化:图结构组合优化中的多模态大型语言模型

原文中文,约300字,阅读约需1分钟。发表于:

本研究旨在解决图结构组合优化问题的复杂性,传统计算方法常常效率低下或成本昂贵。我们提出将图形转换为图像,以保留更高阶结构特征,从而使机器能够模仿人类的空间推理能力,并开发出一种新颖有效的框架来处理这些挑战。研究结果表明,多模态大型语言模型在处理图结构数据方面展现出了卓越的空间智能和深度理解能力,推动了机器在图结构数据分析中的潜力。

本研究提出将图结构转化为图像,以保留高阶特征,提升机器的空间推理能力。结果表明,多模态大型语言模型在图结构数据分析中表现优异。

相关推荐 去reddit讨论

InsTALL:基于多模态大型语言模型的上下文感知教学任务辅助

原文中文,约300字,阅读约需1分钟。发表于:

本研究解决了多模态虚拟助手在执行多步骤任务时的上下文感知不足问题。通过开发上下文感知教学任务助手InsTALL,利用在线视觉流和任务数据,该系统实现了对用户查询的实时响应。研究表明,InsTALL在多模态活动理解的子任务上达到了最佳性能,并在自动错误识别方面超越了现有基准。

本研究开发了上下文感知教学任务助手InsTALL,解决了多模态虚拟助手在多步骤任务中的感知不足问题。该系统能够实时响应用户查询,并在多模态活动理解和自动错误识别方面表现出色。

相关推荐 去reddit讨论

基于大型语言模型的假新闻检测混合注意力框架

原文中文,约300字,阅读约需1分钟。发表于:

本研究针对假新闻的传播这一社会挑战,提出了一种基于大型语言模型的检测框架。该框架结合了文本统计特征和深层语义特征,通过混合注意力机制重点关注对假新闻识别特别重要的特征组合。实验结果表明,该模型在WELFake新闻数据集上比现有方法提高了1.5%的F1分数,为应对假新闻的传播提供了可扩展且高效的解决方案。

本研究提出了一种基于大型语言模型的假新闻检测框架,结合文本统计与深层语义特征,通过混合注意力机制提升识别效果。实验结果显示,该模型在WELFake数据集上的F1分数提高了1.5%,为假新闻传播提供了有效解决方案。

相关推荐 去reddit讨论

你的大型语言模型被固定思维困住了吗?关于固定思维如何影响大型语言模型推理能力的研究

原文中文,约400字,阅读约需1分钟。发表于:

本文研究了固定思维对大型语言模型(LLMs)推理能力的影响,填补了现有评估方法中忽视适应性和克服固有思维模式的空白。通过比较不同LLM模型在存在固定思维时的表现,提出了一种将认知心理学概念融入LLM评估的新方法,揭示了其适应性和解决问题的有效性。此研究为复杂推理任务提供了新的视角和理论依据。

本文探讨了固定思维对大型语言模型(LLMs)推理能力的影响,提出了一种将认知心理学概念融入LLM评估的新方法,揭示了其适应性和解决问题的有效性,为复杂推理任务提供了新的视角。

相关推荐 去reddit讨论

Condor:通过知识驱动的数据合成与精炼增强大型语言模型的对齐

原文中文,约300字,阅读约需1分钟。发表于:

本研究解决了大型语言模型(LLMs)在高质量监督细化(SFT)数据短缺问题,提出了一种名为Condor的两阶段合成数据生成框架。Condor结合了世界知识树和自我反思精炼,能够大规模生成高质量的SFT数据,实验证明仅使用Condor生成的2万个样本微调的基础模型,其性能优于对照组,并且该框架的迭代自我改进能力为各种规模的LLMs提供了验证其有效性的途径。

本研究提出了Condor框架,旨在解决大型语言模型在高质量监督数据短缺的问题。Condor通过世界知识树和自我反思生成高质量数据,实验证明其生成的样本显著提升了模型性能。

相关推荐 去reddit讨论

身体评估:评估多模态大型语言模型作为具身代理

原文中文,约300字,阅读约需1分钟。发表于:

本研究针对现有多模态大型语言模型(MLLMs)评估中的局限性,提出了一个名为EmbodiedEval的综合性互动评估基准。通过设置328个任务涵盖125个不同的3D场景,EmbodiedEval显著增强了评估的多样性和全面性,揭示了当前MLLMs在具身任务上的显著不足,为未来的研究指明了方向。

本研究提出了EmbodiedEval评估基准,包含328个任务和125个3D场景,增强了多模态大型语言模型的评估多样性,揭示其在具身任务上的不足之处。

相关推荐 去reddit讨论

谚语成双:评估大型语言模型的谚语翻译能力

原文中文,约300字,阅读约需1分钟。发表于:

本研究针对当前机器翻译在处理文化元素(如谚语)上的不足,探讨了先进神经机器翻译和大型语言模型在谚语翻译中的能力。通过构建四种语言对的独立谚语及对话谚语的翻译数据集,研究发现大型语言模型在谚语翻译中普遍优于神经机器翻译,而现有的自动评估指标未能有效评估谚语翻译质量,亟需更具文化敏感性的评估标准。

本研究分析了机器翻译在文化元素(如谚语)处理上的不足,发现大型语言模型在谚语翻译方面优于神经机器翻译,现有评估指标未能有效衡量谚语翻译质量。

相关推荐 去reddit讨论

谷歌Vertex AI推出RAG引擎以增强大型语言模型的基础能力

原文英文,约600词,阅读约需2分钟。发表于:

Vertex AI RAG Engine is a managed orchestration service aimed to make it easier to connect large language models (LLMs) to external data sources to be more up-to-date, generate more relevant...

Vertex AI RAG引擎是一项管理服务,旨在简化大型语言模型与外部数据源的连接,支持数据摄取、转换、嵌入、索引和检索。用户可通过Python绑定轻松创建语料库,适用于个性化投资建议和药物发现等场景。RAG技术通过检索相关信息增强模型响应能力。

谷歌Vertex AI推出RAG引擎以增强大型语言模型的基础能力
相关推荐 去reddit讨论