可训练量子机器学习中的任意多项式分离
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
最近的量子机器学习研究发现,量子神经网络(QNNs)在表达能力和可训练性之间存在权衡。通过构建高效训练的层次化QNNs,成功绕过了负面结果,并在经典序列建模任务中展示了多项式内存分离性能。量子机器学习可能在其他经典序列学习问题中具有优势。
🎯
关键要点
-
量子神经网络(QNNs)在表达能力和可训练性之间存在权衡。
-
实际中,QNNs 在表达能力上超过经典机器学习模型的指数级差异被认为不可行。
-
构建层次化的可高效训练的 QNNs 成功绕过了负面结果。
-
这种 QNNs 在经典序列建模任务中展示了多项式内存分离性能。
-
QNNs 的每个单元能够在量子设备上以恒定时间进行计算。
-
这种分离性能在经典神经网络类型中也成立,包括循环神经网络和 Transformer。
-
量子背景的特殊性导致表达能力分离,表明量子机器学习在其他经典序列学习问题中可能具有优势。
➡️