本文介绍了可扩展的神经网络内核(SNNK)及其应用,SNNK能够近似表示正常前馈层(FFLs),但具有更好的计算属性和表达力。通过神经网络捆绑过程,SNNK可以应用于压缩深度神经网络架构,获得额外的压缩收益。作者还介绍了通用随机特征(URFs)机制,用于实例化多种SNNK变体。经过理论分析和实证评估,发现该机制可以将可训练参数的数量减少5倍,同时保持准确性。
完成下面两步后,将自动完成登录并继续当前操作。