本研究提出了一种新方法,通过分析嵌入空间中实例关系的变化,验证对比学习自监督预训练模型中的数据集所有权。实验结果表明,该方法在多种模型中表现优越,有效帮助数据集拥有者维权。
文章讨论了在嵌入空间中进行交互式导航的概念,以提高生成模型的精确度。当前的文本提示方式灵活性不足,难以满足专业需求。理想情况下,用户应能直接调整嵌入空间中的目标,如通过旋钮控制光照强度。此外,创意工作者通常采用多层次的方法,建议训练模型生成多个层次以增强控制和迭代能力。
本研究提出了一种新的法律文档检索方法,结合支持向量回归(SVR)、袋装技术和嵌入空间,显著提升了检索效率和回收率,初步结果良好。
本研究提出了一种新方法,通过面部基础模型和适配器将目标嵌入转换为基础模型的嵌入空间,有效重建面部图像,实验结果表明其在面部识别模型中优于传统方法。
本研究提出了一种新方法,结合类别感知对比优化和去噪自编码器,以解决不平衡文本分类中的性能问题。该方法通过重建损失和对比类别分离,显著提升了嵌入空间中的分类性能,研究结果表明其在多个文本数据集上优于现有技术。
对比学习是一种从无标签数据中学习表示的方法,近年来在图像和文本数据上取得显著成功。SimCLR框架通过有效的预测任务和可学习的变换提升了自监督学习效果。原型对比学习(PCL)和PAUC方法优化了语义表示,提升了分类性能。此外,研究探讨了损失函数的改进及其对嵌入空间几何结构的影响,提出了正交锚回归损失以增强嵌入的独特性。
本文介绍了多种文本到图像个性化生成方法,如InstantBooth、Perfusion和AttnDreamBooth。这些方法通过优化嵌入空间和注意力机制,提高了生成图像的质量与速度,解决了身份保护与文本对齐的矛盾,为个性化图像生成提供了新思路。
研究发现神经元在表示特征时会偏向多语性,即多意地表示次重要特征,单意地表示最重要特征,忽略最不重要的特征。多语性在输入具有更高峭度或稀疏性时更为普遍,且受体系结构影响。嵌入空间具有块半正交结构,不同模型的块大小不同,影响神经元的可解释性。
本文提出了一种基于自监督训练的方法,通过利用所有训练数据的信息,为每个样本提取有意义且可泛化的嵌入空间,从而去除 out-of-distribution 样本,并使用迭代的 Manifold DivideMix 算法找到干净和有噪音的样本,以半监督的方式训练模型。此外,还提出了一种名为 MixEMatch 的半监督算法,通过在输入和流形空间进行插值提取更好的表示。实验证明了该框架的有效性。
本研究提出了一种新方法,通过反向传播选择最佳嵌入空间进行潜在图推理,消除了多次实验的需要。同时,还探索了可解释性技术,揭示了基于注意力的方法如何学习选择适当的潜在空间。实验证明了超球面空间的性能优势,并提供了一种通用方法来量化比较不同任务中的嵌入空间。
我们使用检索引导的对比训练构建了一种恶意感知的嵌入空间,解决了现有基于CLIP的系统对于正确恶意分类所需微小差异缺乏敏感性的问题。我们展示了一种基于检索的恶意违规表情包检测系统,该系统能够根据未见过的数据进行恶意分类,无需重新训练,适用于互联网恶意违规表情包不断演变的实际服务的持续更新。
本文介绍了CLIP模型的训练目标、编码器、嵌入空间、数据集和应用。CLIP使用对比学习训练,提高效率和生成高质量的图像嵌入。CLIP可用于图像分类和基于文本的图像检索,但在图像检索方面表现较低。
这篇论文全面调查了利用嵌入空间进行迁移学习的各种情景,包括少样本学习、零样本学习、持续学习、领域适应和分布式学习。作者总结了过去和正在进行的贡献,为未来的探索和领域进展铺平道路。
本文提出了一种新的损失函数——连续加权对比损失(CWCL),用于交叉感知培训中的对比训练,以对齐嵌入空间。在0-shot图像分类、0-shot语音意图分类和关键词分类中,相对于现有方法取得了显著改进。
该论文介绍了一种无监督表示学习方法——原型对比学习(PCL),能够编码数据的语义结构到学习的嵌入空间中。该方法通过增加原型作为潜在变量来寻找最大似然估计,并提出了一种基于对比学习的通用损失函数 ProtoNCE loss。该方法在多个基准测试中表现优于当前最先进的基于实例对比学习方法,在低资源转移学习方面有显著的改进。
本文探讨了神经元是否会包含无关的特征,即多语性现象。研究表明,最优特征容量分配倾向于在嵌入空间中多意地表示次重要特征,单意地表示最重要特征,而忽略最不重要的特征。多语性在输入具有更高的峭度或稀疏性时更为普遍,且在某些体系结构中更为普遍。此外,嵌入空间具有块半正交结构,不同的模型具有不同的块大小,突出了模型体系结构对其神经元的可解释性的影响。
完成下面两步后,将自动完成登录并继续当前操作。