本研究提出了一种无训练的冲突感知任务合并(CAT合并)方法,旨在解决多任务模型合并中的知识冲突问题。通过剔除冲突组件,CAT合并在视觉、语言和视觉-语言任务上有效提升了准确率,平均提高2.5%和2.0%。
伯克利与英伟达联合开发的PS3视觉编码器实现了4K超高分辨率的高效预训练,突破了传统模型的计算限制。基于此,VILA-HD多模态大模型在高清场景下表现优异,准确率提升3.2%,速度加快三倍,并推出4KPro基准测试集,推动视觉模型在实际应用中的发展。
RFT强化微调结合强化学习与传统微调,能在特定领域显著提升大语言模型表现。华为云ModelArts Studio支持该技术,优化医疗模型,实验显示准确率提升超过10%。此方法降低数据需求,适应性强,适合数据稀缺行业。
本研究提出了一种基于大型语言模型(LLMs)的网络攻击检测方法,旨在提高恶意流量分类的准确性。研究表明,LLMs可作为分类器、编码器和预测器,通过并行建模,DDoS检测的准确率提升近35%。
本研究提出了“物理推理器”框架,以解决大型语言模型在物理问题上的知识不足。该框架通过构建公式集和核对清单,提升了模型在分析、检索和推理阶段的能力,最终在SciBench上实现了平均5.8%的准确率提升。
该研究使用瞳孔测量的虚拟现实情绪识别方法,通过分析虚拟现实头戴设备对视觉和听觉刺激的瞳孔直径响应,提取关键特征并应用集成学习技术,将准确率从84.9%提升至98.8%。研究结果为进一步发展沉浸式交互虚拟现实环境以及虚拟触觉技术打开了新的可能性。
通过研究神经切向核(NTK),设计了一种元学习机制,提高了网络的基础泛化能力。综合多种方法,网络在FSCIL基准数据集上的准确率提升了2.9%至8.7%。
研究者发现,大多数语言模型生成的对话摘要中有27%的事实不一致。对于更具挑战性的事实问题回答,所有模型的平均准确率仅为62.8%。研究还发现,对话的主题/客体的理解是语言模型对话理解能力中最困难的问题。通过自动构建多任务数据进行微调,可以提高模型的对话理解能力。在DIAC-FactQA上,该方法获得了8.9%的准确率提升。
研究者发现大多数对话模型生成的摘要中有27%的事实不一致。对于更具挑战性的事实问题回答,所有模型的平均准确率仅为62.8%。研究者提出了一种通过自动构建多任务数据进行微调的方法,实验结果显示准确率提升了8.9%。
本研究提出了一种支持立场提取网络(SEN),可以在一个统一的框架中提取多模态证据的不同立场,并引入基于命名实体的共现关系计算的支持 - 反驳分数到文本 SEN 中。实验结果显示,该方法优于现有的基线模型,最佳模型在准确率上取得了3.2%的性能提升。
本文研究了大规模视觉-语言模型的集成方法,通过选择具有高度互补性的多种模型来解决任务,实验结果表明集成模型的准确率潜在提升很大。
该文介绍了无恒实验室利用白盒工具进行越权漏洞治理的思路,包括挑战、治理目标和解决方案。未来的白盒检测方向包括准确率提升和越权治理。
完成下面两步后,将自动完成登录并继续当前操作。