高效的机器学习激活函数的量子电路,包括常数 T 深度 ReLU
原文中文,约400字,阅读约需1分钟。发表于: 。我们的研究主要关注于为容错量子计算架构开发激活函数的量子电路,重点在于最小化 $T$-depth。我们提出了 ReLU 和 leaky ReLU 激活函数的新实现,分别实现了恒定的 4 和 8 的 $T$-depth。借助量子查找表,我们还延伸研究到其他激活函数,如 sigmoid。通过调整量子比特的数量,我们能够定制精度和...
我们的研究专注于为容错量子计算架构开发激活函数的量子电路,重点是最小化T-depth。我们提出了ReLU和leaky ReLU激活函数的新实现,分别实现了恒定的4和8的T-depth。通过量子查找表,我们还研究了其他激活函数,如sigmoid。通过调整量子比特的数量,我们能够定制精度和T-depth,使得研究结果适用于各种应用场景。这项研究对于提升量子机器学习的实用性和应用具有重要意义。