NAIM是一种基于Transformer的新方法,通过特征嵌入和自注意机制学习现有数据,避免传统插补技术,提升对不完整数据的泛化能力。评估结果显示其在预测性能和鲁棒性上优于多种机器学习和深度学习模型。
本研究提出了一种新方法,利用多输出嵌入网络和自注意机制,提升少量样本分类中的特征提取和分类性能。实验结果在MiniImageNet和FC100数据集上表现优异。
本文介绍了CUE-Net,一种新的视频监控暴力检测架构,结合空间裁剪与UniformerV2,集成卷积、自注意机制和高效加性注意机制,能够有效识别暴力活动,解决远距离和遮挡问题,在RWF-2000和RLVS数据集上表现优异。
引入L-SFAN卷积神经网络,通过2D滤波器设计捕捉动作和肌电图数据的时空相互作用。改进模型使用定向全局池化层和多头自注意机制,提高慢性下腰痛的分类准确度。实验表明,该方法在减少参数的同时提升性能,并增强模型可解释性,为临床管理提供新见解,展示AI在慢性病医疗中的潜力。
本文介绍了Transformer在自然语言处理中的应用,通过引入自注意机制,Transformer革新了NLP。文章详细解释了Transformer的架构、输入编码、编码器和解码器的工作原理。Transformer在机器翻译、文本摘要等NLP任务中表现出高效和有效的特点。
本研究提出了一种新方法,通过多输出嵌入网络映射样本到不同特征空间,并结合自注意机制来改进特征提取,最终显著提升了分类性能。
本文对基于Transformer框架的方法进行了分类和探究,包括自注意机制的变体和改进。综合对比了分类、分割、目标检测等方面,提出了三个潜在的研究方向,为3D Transformers的发展提供了参考。
本研究比较了卷积神经网络(CNN)和视觉Transformer(ViT)在服装分类中的应用。研究发现,CNN是图像分类的基石,而ViT引入了自注意机制,可以对不同输入数据进行细致加权。研究还探讨了使用这两种架构的最新方法,以确定在电子商务中对时尚MNIST数据集进行图像分类的最佳架构。研究强调了将这两种架构以不同形式结合的重要性,以提高整体性能。
我们提出了一种基于Transformer的多例学习方法,使用区域视觉Transformer自注意机制替代传统的学习注意机制。该方法在两个组织病理学数据集上显著提高了性能,并指出了进一步研究的有希望的方向。
该文章介绍了一种新的全向图像超分辨率方法,通过引入畸变调制的矩形窗口自注意机制和变形自注意机制,提高了感知畸变的能力,并在不同自注意模块间采用动态特征融合方案。实验结果表明该方法在全向图像超分辨率方面优于现有方法。
本研究比较了卷积神经网络(CNN)和视觉Transformer(ViT)在服装分类中的表现。研究发现,CNN是图像分类的基石,而ViT引入了自注意机制,可以对不同输入数据组件进行加权。研究还探讨了使用这两种架构的最新方法,以确定在电子商务中对时尚MNIST数据集进行图像分类的最佳架构。研究强调了将这两种架构以不同形式结合以提高整体性能的重要性。
本研究提出了一种基于Transformer架构和自注意机制的多模态融合框架Multitrans,用于预测中风治疗的功能结果。多模态组合的效果优于单模态,且与临床元诊断信息结合能提供更好的预测效果。
本研究提出了一种基于卷积结构的注意力计算近似方法,可以将注意力矩阵分解为卷积矩阵,实现几乎线性时间的计算。该方法适用于任何输入矩阵,可加速 transformer 注意力计算,实现更长上下文的应用。
该研究提出了一种新型的双通道神经网络模型(DCNN),通过结合卷积操作和自注意机制,提高了细粒度图像分类的准确性。实验证明,该模型在细粒度基准数据集上的性能优于其他先进的卷积或注意力细粒度骨干网络。
该论文提出了一种基于 Transformer 的网络模型,通过自注意机制从敲击序列中提取信息特征,超越了传统的循环神经网络的性能。研究结果表明,该模型在敲击身份验证领域超越了最新技术水平,为发展敲击身份验证领域并提供安全的用户验证系统提供了实际意义。
该论文提出了图变换器结构来改进预测性能,捕捉数据集中不同场所和情景之间的差异,并设计了自注意机制和域适应模块来提高模型的泛化能力。实验结果表明该方案的改进性能。
本文提出了一种新的空间-时间变换网络的范例,用于改善长期交通预测的准确性。该模型使用图神经网络和自注意机制来建模交通数据中的有向空间相关性,并利用长程双向时间依赖性。实验证明,该模型在预测交通流量方面的性能优于现有工作。
本研究调查了图外分布问题(OOD)的体系结构,揭示了图的自注意机制和解耦体系结构对图OOD泛化的正面贡献。开发了一种新的图神经网络模型DGAT,通过实验证明了其在图OOD下的有效性。
该论文提出了图变换器结构来改进预测性能,捕捉数据集中不同场所和情景之间的差异,并设计了自注意机制和域适应模块来提高模型泛化能力。实验证明该方案的改进性能。
本研究发现自注意机制和解耦体系结构对图外分布问题有正面贡献,线性分类层会损害图的泛化能力。研究开发了一种新的图神经网络模型DGAT,实验证明其在图外分布问题下的有效性。
完成下面两步后,将自动完成登录并继续当前操作。