基于神经 ODE 的高性价比 FPGA 实现的微型 Transformer 模型
📝
内容提要
使用神经 ODE 作为骨干架构,我们显著减少了混合模型的参数大小,并将提出的 FPGA 实现部署在资源有限的 FPGA 设备上,从而实现了 12.8 倍的加速和 9.21 倍的能量效率。
🏷️
标签
➡️
使用神经 ODE 作为骨干架构,我们显著减少了混合模型的参数大小,并将提出的 FPGA 实现部署在资源有限的 FPGA 设备上,从而实现了 12.8 倍的加速和 9.21 倍的能量效率。