探讨np.einsum的性能

探讨np.einsum的性能

💡 原文英文,约1100词,阅读约需4分钟。
📝

内容提要

在未开启优化标志时,np.einsum的速度明显慢于np.matmul,尤其在矩阵乘法中。开启优化后,np.einsum的速度显著提升,接近np.matmul,原因是优化时调用了tensordot,利用了BLAS加速。

🎯

关键要点

  • 在未开启优化标志时,np.einsum的速度明显慢于np.matmul,尤其在矩阵乘法中。
  • 开启优化后,np.einsum的速度显著提升,接近np.matmul。
  • 优化时调用了tensordot,利用了BLAS加速。
  • np.einsum在两个操作数的情况下,开启优化后仍然比未优化时快。
  • np.einsum的优化标志用于确定操作数的结合顺序。
  • np.einsum在优化时会创建中间数组以减少计算复杂度。
  • tensordot的调用仅在优化为真时发生,从而利用BLAS加速。
  • np.einsum的实现类似于小学数学中的矩阵乘法方法。
  • np.einsum在优化时会尝试找到最佳的收缩路径,从而提高性能。
  • 即使在只有两个操作数的情况下,开启优化也能显著提高速度。
➡️

继续阅读