ReLU 和加法门控递归神经网络
💡
原文中文,约2300字,阅读约需6分钟。
📝
内容提要
该研究提出了一种新的机制,通过替换循环门中的乘法和Sigmoid函数为加法和ReLU激活函数,以在更低的计算成本下维持长期记忆用于序列处理。该机制能够捕捉序列数据的长期依赖关系,且在CPU和加密环境下都能显著减少执行时间。实验结果表明,该机制具有可比较的准确性,并支持保护隐私的同态加密人工智能应用。
🎯
关键要点
- 该研究提出了一种新的机制,通过替换循环门中的乘法和Sigmoid函数为加法和ReLU激活函数。
- 新机制在更低的计算成本下维持长期记忆,用于序列处理。
- 该机制能够捕捉序列数据的长期依赖关系。
- 在CPU上,该机制减少了一半的执行时间,在加密环境下减少了三分之一的执行时间。
- 实验结果表明,该机制与传统的GRU和LSTM基准模型相比,具有可比较的准确性。
- 该机制支持具有保护隐私的同态加密人工智能应用,避免加密变量的乘法操作。
- 在非加密明文应用中,该机制支持量化操作,潜在地带来显著的性能提升。
➡️