随着AI智能体能力的提升,开发者面临保持跨会话连贯性的问题。为此,提出了初始化智能体和编程智能体的双重解决方案,以确保智能体在复杂项目中高效工作,避免信息丢失和功能未完成。
西北工业大学与香港中文大学联合开发的DiffRhythm模型,基于扩散技术,能够快速生成完整歌曲,提升音乐的连贯性和可理解性。用户只需提供歌词和风格提示,1分钟内即可生成音乐。
本研究提出CINEMA框架,针对个性化多主体视频生成,利用多模态大语言模型消除主体图像与文本的对应关系,从而提升视频的一致性与连贯性,为故事叙述和个性化视频生成开辟新方向。
本研究解决了大型视觉语言模型在生成超过1000单词时的连贯性问题,提出了包含22158个示例的LongWriter-V-22k数据集和Direct Preference Optimization方法,7B参数模型在MMLongBench-Write基准测试中表现优异。
本研究探讨黎巴嫩巴勒斯坦难民如何通过共享叙述维持对纳克巴的集体记忆,强调共同出身和居住地的重要性,特别是女性叙述在记忆形成中的性别维度。
本研究提出了SpeechSSM模型,解决了现有口语语言模型在生成长篇语音时的连贯性和训练问题,显著提升了长篇语音处理能力,并引入了新的评估指标和基准。
本研究提出段级扩散(SLD)框架,以解决扩散模型在生成长文本时的连贯性和上下文准确性问题。SLD通过文本分段和对抗学习显著提升生成效果,实验结果显示其在流畅性和连贯性方面优于其他方法。
本研究提出了CC-Diff方法,解决了遥感图像合成中背景与前景交互缺失的问题,提升了上下文连贯性。实验结果表明,该方法在视觉真实感和语义准确性方面优于现有技术。
本研究提出了一种新模型,结合BERT的语义理解与GPT-4的生成能力,显著提升文本生成的连贯性和深度,超越传统模型。
本文介绍了一种新颖的布朗桥连贯度量指标(BBScore),用于评估文本的局部和整体连贯性,避免了端到端模型训练。该指标与简单分类组件结合时表现优异,能够有效区分大型语言模型与人类撰写的文档,并展示了检测不同模型撰写风格的能力。
该研究探讨了开放式文本生成中模型质量评估的挑战,提出了一种基于偏序的基准方法和新的总结指标,以平衡连贯性、多样性和困惑度,从而提供更全面的质量评估。
研究提出了一种无需训练即可检测大型语言模型生成代码的方法,降低滥用风险。通过修改零样本文本检测方法,利用白盒模型估计标记概率,成功识别生成代码。实验显示,该方法在多个模型上表现优异,对修订攻击具鲁棒性,并适用于Java代码。小型模型PolyCoder-160M在检测中优于大型模型。
本研究使用BLIP-2方法提高医学图像描述的准确性和连贯性,通过适配器调优和医学知识增强损失。在ImageCLEFmedical 2023数据集上验证,模型表现优于其他方法,对于数据匮乏的挑战有希望的应用前景。
介绍了最小p采样方法,可提升大模型数学能力20%,平衡连贯性和多样性。已在Mistral-7B和Llama3-70B上测试,获得广泛应用。核心是动态调整抽样阈值,取得在推理任务、数学类任务和创意写作中的良好效果。
大型语言模型在生成和优化代码方面展现出巨大潜力。提出了一种简单而确定性的采样技术——优先采样,通过模型的置信度产生唯一的样本,改善了性能。优先采样还支持基于正则表达式的生成,提供了可控且有结构的探索过程。优先采样在任意数量的样本中表现更好,将原始模型的性能提升了2.87%至5%的改进,并在仅30个样本中胜过用于原始模型训练标签生成的自动调参器。
本研究使用BLIP-2方法提高医学图像描述的准确性和连贯性。在ImageCLEFmedical 2023数据集上验证,该模型优于其他方法,具有显著改进。
使用 DECOR 作为一个新颖的基准,第一个特别设计用于改善 L2 英语写作的一致性评估数据集,该数据集包括原始不连贯句子及其专家重新写作版本对。
本研究使用BLIP-2方法提高医学图像描述的准确性和连贯性。在ImageCLEFmedical 2023数据集上验证,模型表现优于其他方法,ROUGE和CIDEr指标显著改进,为应对数据匮乏的挑战带来了有希望的结果。
直接偏好优化 (DPO) 是一种有效的方法,通过从成对偏好数据中推导奖励信号,与人类偏好对齐大型语言模型 (LLMs)。研究发现,DPO 在学习能力和向人类首选响应方面有限制。通过分析 DPO 的优化过程,发现减少产生不喜欢数据的概率比增加产生首选数据的概率快,为改进 DPO 提供了理论基础。
完成下面两步后,将自动完成登录并继续当前操作。