可训练量子机器学习中的任意多项式分离

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

最近的量子机器学习研究发现,量子神经网络(QNNs)在表达能力和可训练性之间存在权衡。通过构建高效训练的层次化QNNs,成功绕过了负面结果,并在经典序列建模任务中展示了多项式内存分离性能。量子机器学习可能在其他经典序列学习问题中具有优势。

🎯

关键要点

  • 量子神经网络(QNNs)在表达能力和可训练性之间存在权衡。

  • 实际中,QNNs 在表达能力上超过经典机器学习模型的指数级差异被认为不可行。

  • 构建层次化的可高效训练的 QNNs 成功绕过了负面结果。

  • 这种 QNNs 在经典序列建模任务中展示了多项式内存分离性能。

  • QNNs 的每个单元能够在量子设备上以恒定时间进行计算。

  • 这种分离性能在经典神经网络类型中也成立,包括循环神经网络和 Transformer。

  • 量子背景的特殊性导致表达能力分离,表明量子机器学习在其他经典序列学习问题中可能具有优势。

➡️

继续阅读