标签

 编码器 

相关的文章:

这是一个关于编码器的文章列表页,包含了基于注意力平面归一化流的变分自编码器的物理整合生成建模、使用 Transformer 自编码器进行业务流程的异常修正等多篇文章。

BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

Mask2Former 风格模型的高效 Transformer 编码器

基于视觉 Transformer 的模型在图像分割任务上取得了显著的改进。然而,这些架构对计算资源的使用可能对部署设备造成负担。为了克服这一挑战,我们引入了 ECO-M2F,即 EffiCient TransfOrmer Encoders for Mask2Former 风格的模型。ECO-M2F 提供了一种根据输入图像的特定需求自适应计算级别的策略,以替代当前的一刀切方法。为了实现性能和计算效率之间的平衡,我们提出了一个三步骤的方法,其中包括训练原始架构以实现从编码器的早期退出、创建每个训练样本所需的理想编码器层数的派生数据集,以及使用上述派生数据集训练一个基于输入图像预测编码器层数的门控网络。此外,只需重复第二和第三步骤即可改变计算精度折衷,从而大大缩短重新训练时间。在公开数据集上的实验证明,所提出的方法在保持性能的同时降低了期望的编码器计算成本,适应各种用户计算资源,对架构配置具有灵活性,并且可以扩展到除分割任务外的目标检测。

基于视觉Transformer的ECO-M2F模型提出了一种自适应计算级别的策略,以提高图像分割任务的计算效率。通过训练原始架构、创建派生数据集和使用门控网络,该方法在保持性能的同时降低了编码器计算成本。实验证明该方法适应各种用户计算资源,并可扩展到目标检测任务。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

自编码器辅助的特征集成网络用于潜在故障

利用深度自动编码器辅助特征集成网络(AE-FENet),改善了对微小振幅初始故障的检测性能,实现了在 Tennessee Eastman 工艺中所发现的故障 3、9 和 15 的高准确率,从而在故障检测领域取得了显著的性能提升。

该文章介绍了一种新型的分块自编码器(Patch AE)框架,旨在增强自编码器对异常图像的重构能力。该方法通过分块重构学习到的特征表示的空间分布特征向量的相应位置,提高了自编码器对异常的敏感性。该方法在 Mvtec AD 基准方面取得了最新的研究成果,证明了其有效性,并显示出在实际工业应用场景中的潜力。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

基于卷积自编码器的预处理层提高语义分割方法的预测准确性

我们提出了一种方法来提高语义分割方法的预测准确性,该方法包括构建一个基于卷积自编码器的预处理层的神经网络,并对整个网络进行训练。通过在城市景观数据集上实验比较,我们发现所提出的目标模型的均交并比(Mean IoU)比初始初始化的全卷积网络(FCN)高出 18.7%,而修改后的目标模型的均交并比显著高于初始化的 FCN。训练过程中准确性和损失曲线的变化表明这是由于泛化能力的改进。这些结果强有力地证明了该方法在提高 FCN 的预测准确性方面的显著有效性。该方法具有以下特点:相对简单,但对于提高 FCN 的泛化能力和预测准确性的影响显著;使用该方法增加的参数数量非常小,而计算时间的增加则相当大。原则上,该方法可以应用于其他语义分割方法。目前,在语义分割领域中,没有有效的方法可以提高现有方法的预测准确性,没有人发表过与我们方法相同或类似的方法,也没有人在实践中使用过这样的方法。因此,我们相信我们的方法在实践中是有用的,值得广为人知和使用。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

基于注意力平面归一化流的变分自编码器的物理整合生成建模

物理整合生成建模是一种混合或灰箱建模,其中我们用物理知识来增强数据驱动模型,使其在受控的方式下产生符合物理法则的输出,从而提高外推能力和解释性。本文旨在通过使用变分自动编码器作为生成模型来改善物理整合生成模型的重建保真度和对噪声的鲁棒性,通过计划正则化流来学习物理和可训练数据驱动组件的潜在后验分布,同时在编码器中引入基于缩放点乘注意力的上下文信息以减轻潜在向量中噪声的不利影响并使模型更加鲁棒。我们在人体运动数据集上对模型进行了实证评估,结果验证了我们提出的模型在重建质量和对模型注入噪声的鲁棒性方面的有效性。

物理整合生成建模是一种混合或灰箱建模,通过使用变分自动编码器作为生成模型来改善重建保真度和对噪声的鲁棒性。在人体运动数据集上进行实证评估,结果验证了模型的有效性。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

MaeFuse:通过引导训练,使用预训练的掩码自编码器在红外和可见光图像融合中传递全方位特征

MaeFuse 是一种用于红外和可见光图像融合的新型自编码器模型,利用预训练的 Masked Autoencoders (MAE) 编码器提取特征,在消除不同模态特征的领域差异和 MAE 编码器引起的块效应的同时,利用引导式训练策略逐步增强融合效果。

本文介绍了一种新的深度学习架构,用于红外和可见图像融合问题。该架构包括编码网络、融合层和稠密块,并设计了两个融合策略。与现有方法相比,该方法在评估方面取得了最先进的性能。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

使用 Transformer 自编码器进行业务流程的异常修正

基于 Transformer 自编码器的业务过程异常修正方法能够高效处理任意长度的事件序列,并且可以直接输出修正后的业务过程实例,从而适应各种场景,通过自监督学习将异常检测转化为分类问题,无需设置特定阈值,在确保高运行效率的同时,在异常检测准确性和异常修正结果方面优于以往方法。

本文介绍了一种用于时间序列中的无监督在线异常检测的混合注意力和自编码器(AE)模型。该模型结合了注意力和自编码器的方法进行时间序列异常检测,并通过对自编码器潜在空间中的下一个时间步骤窗口进行预测,使用验证数据集中的阈值进行异常检测,并引入了基于错误的第一统计矩的替代方法,提高了准确性。验证了该模型在异常检测中的有效性。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

基于自编码器的无线联邦学习中的 AirComp 星座设计

该研究提出了一种支持数字调制的端到端通信系统,旨在克服数字调制的 AirComp 中精确解码总和信号的挑战,通过使用自编码器网络结构和发射机、接收机组件的共同优化,填补了数字调制的 AirComp 情景中精确解码总和信号的重要空白,可以推动联邦学习在当代无线系统中的部署。

本文介绍了一种基于UMAirComp框架的边缘联邦学习方式,通过模拟波束成形上传本地模型参数并更新全局模型参数,降低通信延迟和成本。提出了PAM和AGP算法,解决非凸非光滑损失约束下的大规模优化问题。在边缘联邦学习系统中获得较小的误差。测试结果表明UMAirComp系统对自主驾驶任务更敏感。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

ReffAKD: 资源高效的基于自编码器的知识蒸馏

提出了一种新方法来提高知识蒸馏效率,同时不需要资源密集的教师模型。通过使用紧凑的自动编码器提取特征并计算不同类别之间的相似度得分,然后对这些相似度得分应用 softmax 函数以获得软概率向量,这个向量在学生模型的训练中作为有价值的指导。在各种数据集上进行的广泛实验表明,与依赖大型教师模型的传统知识蒸馏方法相比,我们的方法在资源效率方面具有更高的优势,并在模型准确性方面实现了相似甚至更高的性能。

提出了一种新方法来提高知识蒸馏效率,通过使用紧凑的自动编码器提取特征并计算不同类别之间的相似度得分,然后对这些相似度得分应用 softmax 函数以获得软概率向量,这个向量在学生模型的训练中作为有价值的指导。实验证明,该方法在资源效率和模型准确性方面具有优势。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

LLM2Vec: 大型语言模型是强大的文本编码器

我们引入了 LLM2Vec,这是一种简单的无监督方法,可以将任何解码器模型转换为强大的文本编码器,通过三个简单步骤:启用双向注意机制,掩码下一个标记预测和无监督对比学习,在英语词和序列级任务中,LLM2Vec 在词级任务上远远超过编码器模型,在 Massive Text Embeddings Benchmark (MTEB) 中获得了新的无监督最新性能,通过与有监督的对比学习相结合,我们在 MTEB 上实现了使用公开数据训练的模型的最新性能。

本文介绍了解决SemEval 2023 Task 2的体系结构和系统,评估了传统的条件随机场模型和经过自定义头部微调的大型语言模型。通过新的想法提高了模型性能,包括衰减辅助损失、三元标记混合和任务最优头部。最终模型在开发数据上达到了0.85/0.84的微观和宏观F1值,并在测试数据上达到了0.67/0.61。证明了预训练的LLM和额外特征/损失/模型工程技术的改进可以显著提高宏观F1分数。

相关推荐 去reddit讨论
BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

语言模型的减肥计划:通过额外预训练进行相关语言编码器的成本高效开发

我们研究了利用现有的多语言模型进行额外预训练,以确保在克罗地亚语、塞尔维亚语、波斯尼亚语和黑山语这几种密切相关的语言集合中存在具有 10 亿参数的编码器模型的最佳方法,结果显示即使计算量有限,额外预训练可获得与从头开发的模型相当的性能,同时表明邻近语言(如斯洛文尼亚语)的额外预训练几乎不会影响最终模型的性能。

我们研究了利用现有的多语言模型进行额外预训练的最佳方法,结果显示额外预训练可获得与从头开发的模型相当的性能。邻近语言的额外预训练几乎不会影响最终模型的性能。

相关推荐 去reddit讨论

热榜 Top10

LigaAI
LigaAI
Dify.AI
Dify.AI
eolink
eolink
观测云
观测云

推荐或自荐