本研究提出FAMES系统,有效解决了在仅2位量化的深度神经网络中应用近似乘法器的问题。实验结果显示,该方法在保持1%以下的准确性损失的同时,能量消耗减少28.67%,速度比传统方法快300倍。
本研究提出了一种灵活重用近似乘法器的方法,解决神经网络运行时算力资源消耗波动的问题。通过搜索算法,系统可选择合适的近似乘法器子集并再训练,以优化性能,动态调整服务质量。
本研究提出了一种优化方法,通过最小化操作数分布的平均误差,提高了近似乘法器的精度和性能。该方法减少了面积、电功率消耗和延迟,使乘法器比原始模块更小、电功率消耗更低。
完成下面两步后,将自动完成登录并继续当前操作。