Back to list
可逆問題における LLM の幻覚と欠落を防ぐ方法:ハードウェアロジック設計自動化への応用
Mitigating hallucinations and omissions in LLMs for invertible problems: An application to hardware logic design automation
Translated: 2026/4/20 11:04:40
Japanese Translation
arXiv:2512.03053v2 発表タイプ:置換
摘要:我々は、ソースドメイン(例:ロジック条件表 (LCT))から宛先ドメイン(例:ハードウェア記述言語 (HDL) コード)へデータを変換する可逆な問題において、大規模言語モデル (LLM) を情報理論の損失圧縮に類似する、ソースから宛先へ lossless エンコーダーとして使用し、その後ソースに戻る lossless デコーダーとして使用するアプローチが、LLM の幻覚と欠落という欠点を大幅に軽減できることを示す。具体的には、LCT を入力とし、7 つ異なる LLM を使用して 2 次元ネットワークオンチップルーターの完全な HDL を生成した(13 ユニット、1500〜2000 行のコード)、自動生成された HDL から LCT を再構成し、オリジナルと再構成された LCT を比較した。このアプローチは、LLM が正しく生成したロジックを確認し、誤って生成したロジックを検出することで生産性を大幅に向上させるだけでなく、開発者が設計仕様のエラーを見つけ出すのを助けるものである。
Original Content
arXiv:2512.03053v2 Announce Type: replace
Abstract: We show for invertible problems that transform data from a source domain (for example, Logic Condition Tables (LCTs)) to a destination domain (for example, Hardware Description Language (HDL) code), an approach of using Large Language Models (LLMs) as a lossless encoder from source to destination followed by as a lossless decoder back to the source, comparable to lossless compression in information theory, can mitigate most of the LLM drawbacks of hallucinations and omissions. Specifically, using LCTs as inputs, we generate the full HDL for a two-dimensional network-on-chip router (13 units, 1500-2000 lines of code) using seven different LLMs, reconstruct the LCTs from the auto-generated HDL, and compare the original and reconstructed LCTs. This approach yields significant productivity improvements, not only confirming correctly generated LLM logic and detecting incorrectly generated LLM logic but also assisting developers in finding design specification errors.