该研究提出了一种新型的注意力U形Kolmogorov-Arnold网络(AttUKAN),旨在提高视网膜血管分割的细粒特征提取能力。通过标签引导的逐像素对比损失,增强了模型的敏感性和解释性。实验结果表明,AttUKAN在多个公开数据集上取得了最佳的F1和MIoU评分,显示了其在提高分割准确性方面的潜力。
本研究提出了一种pix2pix-zeroCon方法,旨在解决文本提示与参考图像内容保留不足的问题。通过补丁级对比损失,自动确定编辑方向,确保生成图像的内容和结构精准保留。实验结果表明,该方法在图像转换任务中优于现有模型。
本研究提出了一种新颖的多模态对比损失训练方法,解决了视频字幕生成中忽视音频信息的问题。实验结果表明,该方法在多个基准数据集上优于现有模型,生成的字幕更为准确。
该研究提出WTCL-Dehaze网络,通过结合对比损失和离散小波变换,增强图像特征表示,并利用多尺度特征提取捕捉高频细节,解决雾霾图像的颜色失真、对比度低和细节丢失问题。实验结果表明,该方法在去雾效果和鲁棒性上优于现有技术。
该研究提出上下文文档嵌入,通过双编码器架构捕捉文档的语义和上下文信息,提升文本分析效果。双编码器分别处理文档内容和上下文信息,利用对比损失函数优化,生成更准确的文档表示。实验显示,该方法在文本检索和分类任务中优于传统方法,但对显式上下文元数据的依赖可能限制应用,未来可探索隐式方法增强鲁棒性。
本研究提出了一种名为“量化提示”(P4Q)的方法,旨在减少大规模视觉语言模型对训练样本和计算资源的需求。P4Q通过轻量架构和对比损失监督,提升了低比特量化模型的识别性能,缩小了图像和文本特征之间的差距。实验结果显示,P4Q性能优于现有技术,具有实际应用潜力。
研究人员提出了CALRec,一个两阶段的LLM微调框架,通过两种对比损失和语言建模损失在两个塔式结构中微调预训练的LLM。CALRec模型在Recall@1和NDCG@10上的性能优于其他方法。
研究人员提出了CALRec,一个两阶段的LLM微调框架,通过两种对比损失和语言建模损失在两个塔式结构中微调预训练的LLM。实验证明,该模型在Recall@1和NDCG@10上的性能显著优于其他方法。
SPARC是一种预训练多模态表示方法,通过序列损失和对比损失提高图像级和区域级任务的性能,同时改善模型准确性和生成图像描述的能力。
本文提出了一种新的度量标准,通过研究自监督学习模型在跨语言环境中提取的特征,预测特征表示的质量。结果表明,对比损失有助于更有效的跨语言特征提取。
研究人员通过使用合成数据和少于1k个训练步骤,提出了一种新颖简单的方法来获取高质量的文本嵌入。他们利用专有的LLMs在近100种语言中生成大量多样化的合成数据,并使用标准对比损失在合成数据上微调开源的只解码LLMs。实验证明,该方法在高度竞争的文本嵌入基准上表现出强大的性能,而不需要任何标记数据。此外,当将合成数据和标记数据混合进行微调时,该模型在BEIR和MTEB基准上取得了最新的技术成果。
该研究提出了一种在线知识蒸馏的新方法,通过对比损失保证了参与者在不共享输入数据的情况下学习相似特征。该方法在多个数据集上进行了性能测试,相比独立学习和其他联邦知识蒸馏方案,提高了模型的效用。
该研究提出了一种创新的对抗对比学习框架,通过生成实例级对抗样本和优化对比损失,增强了神经网络对抗攻击和常见扭曲的鲁棒性。该方法旨在增强神经网络在安全关键应用中的鲁棒性,如自主车辆在不可预测的天气条件下行驶。
PMT是一种新的多源领域适应方法,使用类原型保持域特定信息,使用对比损失对不同类别进行对齐和分离,减小了参数大小与源域数量的关系,降低了内存问题和过拟合,并在多个物体检测数据集上表现优异。
该研究使用在线知识蒸馏方法,通过对比损失来学习相似特征。参与者的输入数据不需要共享,而是将特征表示发布到中央服务器。客户端使用对比目标来蒸馏知识,提高模型效用。该框架在多个数据集上进行了性能测试。
本文提出了基于对比学习的自动模型评估(CAME)框架,通过在未标记/未见测试集上进行推导,建立了模型性能与对比损失之间的可预测关系,从而克服了现有自动模型评估方法中依赖训练集的问题,并在性能上显著超越了之前的工作。
完成下面两步后,将自动完成登录并继续当前操作。