AICSD: 自适应类间相似度蒸馏,用于语义分割
原文中文,约300字,阅读约需1分钟。发表于: 。该论文提出了一种名为 Inter-Class Similarity Distillation(ICSD)的新方法,通过独立计算每个类的内类分布并计算 KL 散度得出类之间的相似性矩阵进行知识蒸馏,结合自适应损失权重(ALW)训练策略,在语义分割领域的两个著名数据集上验证了该方法的有效性。
该文介绍了一种高效的网络结构,通过从训练充分的医学图像分割网络中提取知识来训练另一个轻量级网络,提高了轻量级网络的分割能力。通过新颖的蒸馏模式,将语义区域信息从教师网络传递给学生网络,避免了处理医学图像时的模糊边界问题。实验结果显示,轻量级网络的性能提高了32.6%,并在LiTS17和KiTS19两个公共CT数据集上进行了验证。