Self-Cross Feature-Based Spiking Neural Networks for Efficient Few-Shot Learning

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了一种新框架FSL-SNN,通过自特征提取和跨特征对比模块,提高了脉冲神经网络在小样本学习中的特征表示精度,并降低了能耗。实验结果表明,该框架在N-Omniglot数据集上的分类性能显著提升,且与人工神经网络在静态数据集上的表现相当。

🎯

关键要点

  • 本研究提出了一种新框架FSL-SNN,旨在提高脉冲神经网络在小样本学习中的特征表示精度。
  • FSL-SNN框架结合了自特征提取模块和跨特征对比模块,显著降低了能耗。
  • 实验结果显示,FSL-SNN在N-Omniglot数据集上的分类性能显著提升。
  • FSL-SNN在CUB和miniImageNet等静态数据集上的表现与人工神经网络相当,且能耗更低。
  • 小样本学习(FSL)在从有限示例中进行泛化方面越来越重要,但深度神经网络(DNN)在计算上成本高且可扩展性差。
➡️

继续阅读