标签

 语言模型 

相关的文章:

本列表汇集了关于语言模型的最新研究与应用,涵盖模型训练、文本推理、医学决策支持等多个领域,展示了语言模型在各行业中的广泛应用与创新。

入选AAAI 2025!清华/伦敦大学学院等首创蛋白质-RNA语言模型融合方案,结合亲和力预测刷新SOTA

PredPRBA 和 DeepNAP 支持蛋白质-RNA 对亲和力预测,研究人员将这些方法在 PRA201 数据集上的表现进行了比较,结果显示,尽管 PRA201 中至少有 100 个样本出现在它们的训练集中,但它们在 PRA201 上的性能明显低于它们报告的结果,表明这些方法的泛化能力较差。理解蛋白质-RNA...

阿尔茨海默病等神经退行性疾病与蛋白质-RNA结合异常有关。研究者提出CoPRA模型,通过结合蛋白质和RNA的语言模型,预测结合亲和力,取得了优异的性能,推动了生物医学研究的进展。

原文中文,约5300字,阅读约需13分钟。发表于:
阅读原文

LangChainJS文档完整指南:轻松优化语言模型的使用

LangChainJS is a powerful library for building applications based on language models (LLMs) such as GPT-3, GPT-4, and others. With clear and well-structured documentation, developers can easily...

LangChainJS是一个强大的库,用于构建基于语言模型的应用。本文介绍了克隆LangChainJS文档库的步骤,包括安装Git、克隆库和导航文件夹。文档结构清晰,参数解释详细,帮助开发者快速配置应用,节省时间,减少错误。

LangChainJS文档完整指南:轻松优化语言模型的使用
原文英文,约400词,阅读约需2分钟。发表于:
阅读原文

扩散语言模型:AI编程的未来

Language models have been evolving rapidly, with autoregressive transformers like GPT-4 setting the standard for AI-generated text. A new class of models has emerged as a strong contender:...

扩散模型如Mercury正在革新AI文本生成方式,与传统自回归模型不同,它们能并行优化输出,提升生成速度和灵活性。这种模型在编程中表现优异,支持迭代修正,满足开发者需求,推动AI与软件开发的深度融合。

扩散语言模型:AI编程的未来
原文英文,约1100词,阅读约需4分钟。发表于:
阅读原文

块扩散:在自回归和扩散语言模型之间插值

本研究针对扩散语言模型在似然建模和固定长度生成方面的局限性,提出了一类块扩散语言模型,能够实现灵活长度的生成并提高推理效率。研究表明,块扩散模型在语言建模基准测试中设置了新的最先进性能,并支持生成任意长度的序列。

本研究提出了一种块扩散语言模型,克服了传统扩散语言模型在似然建模和固定长度生成方面的局限性,提高了推理效率,并在语言建模基准测试中取得了新进展。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

人工智能语言模型突破:新方法实现自我纠错文本生成

This is a Plain English Papers summary of a research paper called AI Language Model Breakthrough: New Method Enables Self-Correcting Text Generation. If you like these kinds of analysis, you...

研究者提出了一种新方法——广义插值离散扩散(GIDD),结合掩蔽和均匀噪声,允许模型自我纠错,从而实现最佳性能。

人工智能语言模型突破:新方法实现自我纠错文本生成
原文英文,约200词,阅读约需1分钟。发表于:
阅读原文
原文英文,约200词,阅读约需1分钟。发表于:
阅读原文

融合图神经网络与无监督语言模型,对RNA-蛋白质相互作用精准预测

华中师范大学与美国华盛顿大学和达特茅斯学院合作推出ZHMolGraph模型,结合图神经网络与无监督语言模型,显著提升RNA-蛋白质相互作用预测的准确性。该模型在基准数据集上取得79.8%的AUROC和82.0%的AUPRC,成为全基因组RNA-蛋白质预测的可靠工具。

融合图神经网络与无监督语言模型,对RNA-蛋白质相互作用精准预测
原文中文,约2200字,阅读约需6分钟。发表于:
阅读原文

语言模型无法反思其对语言的知识

本研究探讨大型语言模型(LLMs)是否能够自我反思其内部语言知识,特别关注语法知识和词预测的领域。研究发现,尽管模型在相关任务中表现良好,但并没有证据表明它们具有特权的"自我访问"能力,这为理解模型的内在语言知识提出了新的挑战。

本研究探讨大型语言模型(LLMs)是否能够自我反思其语言知识,尤其是语法和词预测。结果表明,尽管模型表现良好,但缺乏自我访问能力,这使得理解其语言知识变得困难。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

CtrlRAG:基于掩蔽语言模型的检索增强语言生成中的黑箱对抗攻击

本研究针对检索增强生成系统中存在的安全漏洞,提出了新的对抗攻击方法CtrlRAG,利用掩蔽语言模型动态优化恶意内容。实验结果表明,CtrlRAG在情感操控和幻觉增强目标上超过了三种基线方法,同时评估现有防御机制时显示其对CtrlRAG的有效性有限,强调了迫切需要更强的防御措施。

本研究提出了对抗攻击方法CtrlRAG,针对检索增强生成系统的安全漏洞,动态优化恶意内容。实验结果表明,该方法在情感操控和幻觉增强方面优于三种基线方法,现有防御机制对其有效性有限,需加强防御措施。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

视觉语言模型中的标记减少的潜在危害:对一致性的隐性影响

本研究针对视觉语言模型中标记减少带来的计算成本和一致性问题,揭示了标记减少会显著改变模型输出分布,导致预测模式的不一致。我们提出了一种名为LoFi的新方法,通过利用奇异值分解的杠杆分数进行标记剪枝,从而在降低计算成本的同时,提升输出的一致性,显示出较传统方法更优的性能。

发表于:
阅读原文