FaultSeg Swin-UNETR:基于 Transformer 的自监督预训练模型用于故障识别

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

该文介绍了将迁移学习应用于音素分割任务中的方法,通过在自监督预训练中学习的表示对任务的效用得到证明。在 Transformer 风格编码器中增加有策略的卷积,操作预训练中学到的特征,该模型在 TIMIT 和 Buckeye 语料库上训练和测试,分别在监督和非监督设置下达到了以前的最佳性能。同时,作者还解决了评估指标的定义和实现不确定性的问题。

原文中文,约300字,阅读约需1分钟。
阅读原文