Self-Cross Feature-Based Spiking Neural Networks for Efficient Few-Shot Learning
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种新框架FSL-SNN,通过自特征提取和跨特征对比模块,提高了脉冲神经网络在小样本学习中的特征表示精度,并降低了能耗。实验结果表明,该框架在N-Omniglot数据集上的分类性能显著提升,且与人工神经网络在静态数据集上的表现相当。
🎯
关键要点
- 本研究提出了一种新框架FSL-SNN,旨在提高脉冲神经网络在小样本学习中的特征表示精度。
- FSL-SNN框架结合了自特征提取模块和跨特征对比模块,显著降低了能耗。
- 实验结果显示,FSL-SNN在N-Omniglot数据集上的分类性能显著提升。
- FSL-SNN在CUB和miniImageNet等静态数据集上的表现与人工神经网络相当,且能耗更低。
- 小样本学习(FSL)在从有限示例中进行泛化方面越来越重要,但深度神经网络(DNN)在计算上成本高且可扩展性差。
🏷️
标签
➡️