Back to list
arxiv_cs_lg 2026年4月20日

リソース効率の良い不変量量子畳み込みニューラルネットワーク

Resource-efficient equivariant quantum convolutional neural networks

Translated: 2026/4/20 11:06:11
quantum-machine-learningquantum-convolutional-neural-networksequivariant-neural-networksvariational-quantum-circuitsquantum-symmetries

Japanese Translation

arXiv:2410.01252v2 Announce Type: replace-cross 要約:不変量量子ニューラルネットワーク (QNN) は、対称性を活用して機械学習のパフォーマンスを向上させる有望な最適化モデルである。不変量 QNN に関する理論的発展にもかかわらず、近未来の量子装置における実装には、計算リソースの制約により大きな課題が残っている。本研究では、不変量量子畳み込みニューラルネットワーク (QCNN) のリソース効率の良いモデルである「不変量分裂並列化 QCNN (sp-QCNN)」を提案する。群論的なアプローチを用い、従来の sp-QCNN において扱われた遷移対称性を超えて一般対称性をモデルへ符号化する。これは、プーリングレイヤーで回路を分割しつつ対称性を保持することで実現される。この分割構造は、観測値の期待値とその勾配を推定する際の測定効率をクビットの数オーダーで向上させる効果がある。また、本モデルは barren plateau の存在なしも含め、高い学習性と汎化性能を示す。数値実験では、ノイズのある量子データの分類タスクにおいて、従来の不変量 QCNN に比べて更少なる測定リソースでトレーニングと汎化が可能であることが示された。本研究成果は、実用的な量子機械学習アルゴリズムの進歩に寄与する。

Original Content

arXiv:2410.01252v2 Announce Type: replace-cross Abstract: Equivariant quantum neural networks (QNNs) are promising variational models that exploit symmetries to improve machine learning capabilities. Despite theoretical developments in equivariant QNNs, their implementation on near-term quantum devices remains challenging due to limited computational resources. This study proposes a resource-efficient model of equivariant quantum convolutional neural networks (QCNNs) called equivariant split-parallelizing QCNN (sp-QCNN). Using a group-theoretical approach, we encode general symmetries into our model beyond the translational symmetry addressed by previous sp-QCNNs. We achieve this by splitting the circuit at the pooling layer while preserving symmetry. This splitting structure effectively parallelizes QCNNs to improve measurement efficiency in estimating the expectation value of an observable and its gradient by order of the number of qubits. Our model also exhibits high trainability and generalization performance, including the absence of barren plateaus. Numerical experiments demonstrate that the equivariant sp-QCNN can be trained and generalized with fewer measurement resources than a conventional equivariant QCNN in a noisy quantum data classification task. Our results contribute to the advancement of practical quantum machine learning algorithms.