Back to list
COEVO: LLM ベースの RTL 生成における機能正解性と PPA 最適化の統合を可能にする共進化枠組み
COEVO: Co-Evolutionary Framework for Joint Functional Correctness and PPA Optimization in LLM-Based RTL Generation
Translated: 2026/4/20 11:16:54
Japanese Translation
arXiv:2604.15001v2 発表型: 置換
要約: LLM ベースの RTL コード生成手法は、機能正解性と PPA(電力、パフォーマンス、面積)の両方を標的とする傾向にありますが、既存のアプローチは両者の目標を一律的に分離しており、機能正解性が完全に達成される後にのみ PPA を最適化しています。シーケンシャルなマルチエージェントパイプライン、二値正解性ゲートを伴う進化探索、階層報酬の依存関係にかかわらず、部分的に正解だがアーキテクチャ的に有望な候補は系統的に丢弃されます。さらに、既存の手法は多目的 PPA 空間を単一のスカラーフィットネスに削減することで、面積、遅延、電力間のトレードオフを遮蔽しています。これらの限界に対処するために、我々は正解性と PPA 最適化を単一の進化ループ内でのみ統合する「COEVO」という共進化学枠組みを提案しました。COEVO は、拡張されたテストベンチによる微細なスコアリングと詳細な診断フィードバックを可能にすることで、面積、遅延、電力を伴う連続的な共最適化次元として正解性を形式化します。冷却機能付き適応正解性ゲートにより、PPA が有望だが部分的に正解である候補が、 jointly 最適解への探索を誘導します。完全な PPA トレードオフ構造を保つために、COEVO は手動ウェイト調整を不要にします。VerilogEval 2.0 と RTLLM 2.0 で評価され、GPT-5.4-mini を使用して 97.5% と 94.5% の Pass@1 を達成し、4 つの LLM バックボーンにわたるすべてのエージェントベースラインを凌駕しました。また、合成可能な 49 個の RTLLM デザインのうち 43 個で最適な PPA を達成しました。
Original Content
arXiv:2604.15001v2 Announce Type: replace
Abstract: LLM-based RTL code generation methods increasingly target both functional correctness and PPA quality, yet existing approaches universally decouple the two objectives, optimizing PPA only after correctness is fully achieved. Whether through sequential multi-agent pipelines, evolutionary search with binary correctness gates, or hierarchical reward dependencies, partially correct but architecturally promising candidates are systematically discarded. Moreover, existing methods reduce the multi-objective PPA space to a single scalar fitness, obscuring the trade-offs among area, delay, and power. To address these limitations, we propose COEVO, a co-evolutionary framework that unifies correctness and PPA optimization within a single evolutionary loop. COEVO formulates correctness as a continuous co-optimization dimension alongside area, delay, and power, enabled by an enhanced testbench that provides fine-grained scoring and detailed diagnostic feedback. An adaptive correctness gate with annealing allows PPA-promising but partially correct candidates to guide the search toward jointly optimal solutions. To preserve the full PPA trade-off structure, COEVO employs four-dimensional Pareto-based non-dominated sorting with configurable intra-level sorting, replacing scalar fitness without manual weight tuning. Evaluated on VerilogEval 2.0 and RTLLM 2.0, COEVO achieves 97.5\% and 94.5\% Pass@1 with GPT-5.4-mini, surpassing all agentic baselines across four LLM backbones, while attaining the best PPA on 43 out of 49 synthesizable RTLLM designs.