Back to list
arxiv_cs_ai 2026年4月20日

VeriMoA: 記法から HDL 生成への混合エージェント枠組み

VeriMoA: A Mixture-of-Agents Framework for Spec-to-HDL Generation

Translated: 2026/4/20 11:16:14
hardware-description-languageslarge-language-modelsregister-transfer-levelmixtures-of-agentsautomatic-software-design

Japanese Translation

arXiv:2510.27617v2 発表タイプ:置換 要旨: レジスタ転送レベル (RTL) デザインの自動化は、開発者が増大する計算要件を満たすのを助ける可能性があります。大規模言語モデル (LLM) はハードウェア記述言語 (HDL) 生成の有望な候補を示していますが、パラメトリックな知識の限界とドメイン固有の制約により課題を抱えています。プロンプトエンジニアリングやファインチューニングは知識の範囲とトレーニングコスト面で制限がありつつも、マルチエージェントアーキテクチャは共同生成を通じた推論強化を実現する、トレーニングフリーのパラジグムを提供します。しかし、現在のマルチエージェントアプローチは、ノイズの伝播への感受性と推論空間探索の制限という 2 つの重大な欠陥に悩まされています。本稿では、2 つの相互補完的な革新を備えたトレーニングフリーの混合エージェント (MoA) 枠組み VeriMoA を提案します。第一に、すべての中間 HDL アウトプットを維持し、品質に基づいたランキングと選択を生成プロセス全体に可能にする品質指向型キャッシュ機構。これにより、推論の層にわたる知識の蓄積を促進します。第二に、C++ と Python を中間表現として活用し、記法から HDL への変換を 2 つの段階に分解するマルチパス生成戦略。これは、LLM のリソース豊富な言語における流利さを活用するとともに、解決策の多様性を促進します。VerilogEval 2.0 と RTLLM 2.0 ベンチマークにおける包括的な実験では、VeriMoA が多様な LLM バックボーンにおいて Pass@1 を 15–30% 向上させることが示されました。特に、小型モデルが大型モデルやファインチューニングされた代替手段に匹敵する能力を獲得することを可能にし、コストの高いトレーニングを要しません。

Original Content

arXiv:2510.27617v2 Announce Type: replace Abstract: Automation of Register Transfer Level (RTL) design can help developers meet increasing computational demands. Large Language Models (LLMs) show promise for Hardware Description Language (HDL) generation, but face challenges due to limited parametric knowledge and domain-specific constraints. While prompt engineering and fine-tuning have limitations in knowledge coverage and training costs, multi-agent architectures offer a training-free paradigm to enhance reasoning through collaborative generation. However, current multi-agent approaches suffer from two critical deficiencies: susceptibility to noise propagation and constrained reasoning space exploration. We propose VeriMoA, a training-free mixture-of-agents (MoA) framework with two synergistic innovations. First, a quality-guided caching mechanism to maintain all intermediate HDL outputs and enables quality-based ranking and selection across the entire generation process, encouraging knowledge accumulation over layers of reasoning. Second, a multi-path generation strategy that leverages C++ and Python as intermediate representations, decomposing specification-to-HDL translation into two-stage processes that exploit LLM fluency in high-resource languages while promoting solution diversity. Comprehensive experiments on VerilogEval 2.0 and RTLLM 2.0 benchmarks demonstrate that VeriMoA achieves 15--30% improvements in Pass@1 across diverse LLM backbones, especially enabling smaller models to match larger models and fine-tuned alternatives without requiring costly training.