💡
原文英文,约1100词,阅读约需4分钟。
📝
内容提要
在未开启优化标志时,np.einsum的速度明显慢于np.matmul,尤其在矩阵乘法中。开启优化后,np.einsum的速度显著提升,接近np.matmul,原因是优化时调用了tensordot,利用了BLAS加速。
🎯
关键要点
- 在未开启优化标志时,np.einsum的速度明显慢于np.matmul,尤其在矩阵乘法中。
- 开启优化后,np.einsum的速度显著提升,接近np.matmul。
- 优化时调用了tensordot,利用了BLAS加速。
- np.einsum在两个操作数的情况下,开启优化后仍然比未优化时快。
- np.einsum的优化标志用于确定操作数的结合顺序。
- np.einsum在优化时会创建中间数组以减少计算复杂度。
- tensordot的调用仅在优化为真时发生,从而利用BLAS加速。
- np.einsum的实现类似于小学数学中的矩阵乘法方法。
- np.einsum在优化时会尝试找到最佳的收缩路径,从而提高性能。
- 即使在只有两个操作数的情况下,开启优化也能显著提高速度。
➡️