本研究提出了局部注意力知识蒸馏框架(LAKD),解决了现有方法在蒸馏信息利用方面的不足。LAKD在多个数据集上表现出高可解释性和竞争力性能,具有模型压缩和知识迁移的潜力。
完成下面两步后,将自动完成登录并继续当前操作。