SpikeBERT: 从 BERT 进行两阶段知识蒸馏训练的语言 Spikformer
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文介绍了改进的脉冲变压器(Spikformer)用于处理语言任务,并提出了两阶段知识蒸馏方法来训练它。通过从BERT对无标签文本进行知识蒸馏的预训练和再次从BERT进行微调,训练出的SpikeBERT模型在英文和中文文本分类任务上表现优于最先进的SNNs,甚至与BERT相当,并且能够降低能量消耗。
🎯
关键要点
- 改进的脉冲变压器(Spikformer)用于处理语言任务。
- 提出了一种两阶段知识蒸馏方法来训练Spikformer。
- 方法结合了从BERT对无标签文本进行知识蒸馏的预训练和微调。
- 训练出的SpikeBERT模型在英文和中文文本分类任务上表现优于最先进的SNNs。
- SpikeBERT的表现与BERT相当,并能显著降低能量消耗。
➡️