姐妹们,你们有没有想过,高大上的量子神经网络(QNNs)在“无限大”的时候会变成什么样子?Los Alamos National Laboratory 的 M. Cerezo 及其团队的论文《Quantum neural networks form Gaussian processes》(已发表在 Nature Physics)就给我们带来了颠覆性的答案!他们首次从数学上严格证明,某些基于Haar随机酉矩阵或正交矩阵构建的量子神经网络模型,在希尔伯特空间维度趋于无穷大时,其输出会神奇地收敛到一个高斯过程(GP)!这就好像看着一滴墨水在水中无限扩散,最终形态竟有规律可循!
===
那这个发现到底强在哪里呢?

首先,这个量子版本的“神经网络-高斯过程”对应关系,可比经典情况复杂多了!论文强调,证明过程充分考虑了量子世界的独特性,比如输入量子态的特性、测量算符的选择,以及最关键的——酉矩阵中元素并非相互独立,这和经典神经网络的参数独立同分布(i.i.d.)先验有着本质区别。更厉害的是,这个理论还揭示了哈尔随机QNN中的“测度集中”现象比之前预想的还要严重,其期望值和梯度的集中速度达到了惊人的 $O(1/e^{d}\sqrt{d})$ 级别!
===
这项研究的价值又体现在哪里呢?

这无疑为我们理解QNN的能力边界打开了一扇新的大门!它不仅深化了QNN与量子核方法的内在联系,还意味着我们可以利用高斯过程回归的强大能力来预测QNN的输出,甚至进行贝叶斯推断。而且,研究成果还能推广到构成t-design的QNN,这在实际应用中更具可行性。未来的量子机器学习、量子信息处理,甚至是黑洞物理研究都可能因此受益匪浅!