Back to list
arxiv_cs_lg 2026年4月24日

効率的な複素数値不確実性推定のためのアルゴリズムとハードウェアの共同設計

Algorithm and Hardware Co-Design for Efficient Complex-Valued Uncertainty Estimation

Translated: 2026/4/24 20:03:07
complex-valued-neural-networksuncertainty-quantificationbayesian-deep-learningfpga-acceleratorautomated-hardware-design

Japanese Translation

arXiv:2604.19993v1 Announce Type: cross Abstract: 複素数値ニューラルネットワーク (CVNN) は複素数を含むタスクの処理において顕著な利点を有していますが、既存の CVNN は予測の不確実性を定量することはできません。我々は初めて、ドロップアウトベースのベイズ複素数値ニューラルネットワーク (BayesCVNNs) を提案し、複素数値アプリケーションにおける不確実性の定量を可能にするとともに、モジュール性によりハードウェア実装に広く適用可能かつ効率的であることを示しました。さらに、複素数の二重性の性質は設計空間を広げ、レイヤーミキシングとパートミキシングに基づく新しい構成を可能にし、リアル部と虚部双方の最適な構成を効果的に特定するために、自動探索アプローチを導入しました。デプロイを容易にするために、最適化されたビルディングブロックのセットを活用し、BayesCVNNs 用のカスタマイズされた FPGA ベースのアクセラレータを生成するフレームワークを提示しました。実験は、自動探索により最適な構成を効果的に見つけられ、手動で作成されたモデルと比較して高い性能と低いハードウェアコストをもたらすと示しました。最適化されたアクセラレータは、GPU 実装と比較して約 4.5 倍および 13 倍の高速化を達成し、消費電力は 10% 未満であり、アルゴリズムおよびハードウェアの両面において既存の研究を上回っています。我々のコードは以下の URL から公開されています:https://github.com/zehuanzhang/BayesCVNN.git

Original Content

arXiv:2604.19993v1 Announce Type: cross Abstract: Complex-Valued Neural Networks (CVNNs) have significant advantages in handling tasks that involve complex numbers. However, existing CVNNs are unable to quantify predictive uncertainty. We propose, for the first time, dropout-based Bayesian Complex-Valued Neural Networks (BayesCVNNs) to enable uncertainty quantification for complex-valued applications, exhibiting broad applicability and efficiency for hardware implementation due to modularity. Furthermore, as the dual-part nature of complex values significantly broadens the design space and enables novel configurations based on layer-mixing and part-mixing, we introduce an automated search approach to effectively identify optimal configurations for both real and imaginary components. To facilitate deployment, we present a framework that generates customized FPGA-based accelerators for BayesCVNNs, leveraging a set of optimized building blocks. Experiments demonstrate the best configuration can be effectively found via the automated search, attaining higher performance with lower hardware costs compared with manually crafted models. The optimized accelerators achieve approximately 4.5x and 13x speedups on different models with less than 10% power consumption compared to GPU implementations, and outperform existing work in both algorithm and hardware aspects. Our code is publicly available at: https://github.com/zehuanzhang/BayesCVNN.git.