标签

 语言模型 

相关的文章:

探索语言模型在游戏描述生成、渐进安全的输出、依存结构整合、版权保护、驾驶理论知识、情境适应、文本反馈对齐、健康社会决定因素提取、深度修剪和自主语言代理方面的应用与研究。

函数调用的阴暗面:大型语言模型破解的途径

原文约400字,阅读约需1分钟。发表于:

利用对齐差异、用户强迫和缺乏严格的安全过滤器,本研究揭示了大型语言模型中函数调用过程的关键性漏洞,引入了一种新颖的 “越狱函数” 攻击方法。通过对 GPT-4o、Claude-3.5-Sonnet 和 Gemini-1.5-pro 等六种最新技术的大型语言模型的实证研究,发现此攻击的惊人平均成功率超过...

本研究揭示了大型语言模型中函数调用过程的关键性漏洞,引入了一种新颖的“越狱函数”攻击方法。研究发现此攻击的成功率超过90%,并提出了防护策略。研究结果强调了加强大型语言模型函数调用功能的安全措施的紧迫性。

相关推荐 去reddit讨论

递归内省:教授语言模型智能代理如何自我改进

原文约200字,阅读约需1分钟。发表于:

通过递归内省,我们开发了 RISE 方法,用于对大型语言模型进行微调,使其能够逐渐改进回应,特别是在数学推理任务中,超越了单回合策略,并通过在线模仿学习和强化学习原理提出了多回合数据收集和训练策略。

该论文介绍了TriPosT训练算法,通过自我改进减小小模型与大型模型的性能差距。

相关推荐 去reddit讨论

TwIPS:基于大型语言模型的简化文本应用,为自闭症用户简化对话细节

原文约500字,阅读约需2分钟。发表于:

基于大型语言模型的 TwIPS 应用通过解读信息的情绪和含义、确保信息的情绪与意图一致、提供易于误解的信息的替代措辞等功能来帮助自闭症患者进行文本交流,同时对自闭症患者的语言运用和理解进行研究和反馈收集,以平衡用户自治和 AI 的介入、建立适当的信任水平和满足自闭症患者在 AI 辅助交流上的个性化需求。

本研究通过与最新的DALLE3集成的T2I模型ChatGPT,重新审视现有的T2I系统,并引入交互式文本到图像(iT2I)任务。通过引入提示技术和现成的T2I模型,提出了一种简单的方法来增强LLMs在iT2I上的能力。希望本研究能够提升人机交互的用户体验和下一代T2I系统的图像质量。

相关推荐 去reddit讨论

自主图像修复智能体:基于多模态大型语言模型

原文约300字,阅读约需1分钟。发表于:

基于多模态大型语言模型的智能图像恢复系统 RestoreAgent 能够自主评估图像的退化类型和程度,并通过确定恢复任务、优化任务序列、选择适合的模型和执行恢复来处理复杂的退化,表现超越人类专家,且系统的模块化设计增强了新任务和模型的快速集成,增强了其在各种应用中的灵活性和可扩展性。

基于多模态大型语言模型的智能图像恢复系统RestoreAgent能够自主评估图像的退化类型和程度,并通过确定恢复任务、优化任务序列、选择适合的模型和执行恢复来处理复杂的退化,表现超越人类专家,且系统的模块化设计增强了新任务和模型的快速集成,增强了其在各种应用中的灵活性和可扩展性。

相关推荐 去reddit讨论

使用视觉与语言模型建模人类概念处理中的多模态集成

原文约300字,阅读约需1分钟。发表于:

当前的视觉和语言深度神经网络模型(VLMs)整合多模态信息,其表示与大脑活动高度相关,比起纯语言和纯视觉深度神经网络模型(DNNs)具有更好的大脑一致性,同时与行为一致性无明显关系。

连接文本和视觉模态在生成智能中起关键作用,最近的研究关注多模态大型语言模型 (MLLMs),分析了它们的体系结构、对齐策略和训练技术,并对其在多个任务上的应用进行了详细分析。调查比较了现有模型的性能和计算要求,为未来的 MLLMs 提供了基础。

相关推荐 去reddit讨论

GermanPartiesQA:商用大型语言模型在政治偏见和奉迎方面的基准测试

原文约300字,阅读约需1分钟。发表于:

评估和比较了六个 LLMs(语言模型)在德国政党立场上的一致性,并通过实验评估了奉承行为;研究发现在所有的 LLMs 中存在左倾绿色倾向,而对于 LLMs 的输出变化,结果显示更适合描述为根据给定上下文的个性化,而非奉承行为。

本研究使用大规模语言模型(LLMs)解读和预测社交媒体上的政治偏见。研究发现LLMs在捕捉情绪和道德细微差别方面有效,但在立场检测方面存在挑战。该研究展示了LLMs在政治敏感环境中的潜力和重要性。

相关推荐 去reddit讨论

Kiki 的外观是什么?视觉语言模型中语音和视觉形状之间的跨模态关联

原文约300字,阅读约需1分钟。发表于:

人类在将某些新词匹配到视觉形状时具有明显的跨模态偏好。该研究以人类实验为基础,探索并比较四种视觉 - 语言模型在人类跨模态偏好(bouba-kiki 效应)上的编码情况。虽然没有找到确凿的证据支持这一效应,但结果可能取决于模型的特征,如架构设计、模型大小和训练细节。这些发现为探讨 bouba-kiki 效应在人类认知中的起源以及未来与人类跨模态关联相符的视觉 - 语言模型的发展提供了信息。

研究探索了四种视觉-语言模型在人类跨模态偏好编码中的影响。结果表明模型特征可能会影响结果,这有助于研究bouba-kiki效应的起源和发展与人类跨模态关联相符的视觉-语言模型。

相关推荐 去reddit讨论

利用新闻流进行股票收益预测的大型语言模型微调

原文约400字,阅读约需1分钟。发表于:

本研究探讨了使用大型语言模型(LLMs)和其微调技术进行股票回报预测的方法,通过金融新闻流进行微调。实验结果表明,LLMs 的文本表示对股票组合构建具有较强的信号,并能提高回报预测性能。

金融情绪分析对揭示模式和检测趋势很重要。研究发现,经过微调的较小LLM在金融领域表现出与最先进模型相当的性能。增加上下文学习的样本数量并不能提高金融情绪分析的性能。

相关推荐 去reddit讨论

大型语言模型的泛化界限在解锁令牌作为数据点上

原文约400字,阅读约需1分钟。发表于:

使用 martingales 的特性,通过 Monarch 矩阵、Kronecker 分解和后训练量化技术,获得大规模语言模型(LLMs)的非平凡泛化界限,适用于实际部署并能生成高质量文本的模型。

本文介绍了一个贝叶斯学习模型来理解大型语言模型的行为,并研究了它们的功能和潜在应用。通过预测下一个标记,开发了一个新的模型,并探讨了嵌入和多项式分布之间的连续性。研究结果表明,大型语言模型的行为与贝叶斯学习一致。

相关推荐 去reddit讨论

大型语言模型是否能够进行认知行为疗法?

原文约400字,阅读约需1分钟。发表于:

通过收集实际的认知行为疗法对话语料库,设计和实施了一个针对情绪倾向评估、结构化对话模式和积极探究能力的评估框架,评估了大型语言模型在心理辅导领域的潜力,特别是在与其他技术手段结合后。

本文介绍了PsycoLLM,一种专门的心理学大型语言模型,通过高质量心理学数据集进行训练。实验结果显示,PsycoLLM在心理学评估基准上表现出优势。

相关推荐 去reddit讨论