Back to list
Coderciruit: アイテム生成コードの正しさを推論するためのLLMからの_attributableグラフ
CodeCircuit: Toward Inferring LLM-Generated Code Correctness via Attribution Graphs
Translated: 2026/3/7 11:33:53
Japanese Translation
現在のコード検証のパラダイムは、実行ベースの単位テストやオプショナルのLLMの判断など、外部メカニズムに依存しています。これらは、しばしば労力に要求され、また試験のモデル自体の能力には制限されます。これによって、一つの基本的な(しかし未探索された)質問が生じました:我々の根本的目標を問い詰めるのは、モデルのニューラルダイナミクスが内部の計算構造を通じて独自に暗号化可能な信号を記録し、コード生成中に論理的有效性を予測することができるかどうかです。私たちは機械可視化的理解により Inspired と提案します:コード検証は機械的な診断タスクであり、モデルの明確なアルゴリズムの進行路を行方的 attribution グラフにマッピング。多重の流れを分解することで、モデル内の回路内で音声理論と論理損失が区別できる内面的な構造の痕跡を特定します.Python、C++ 及び Java での分析は、固有の正しさの情報は複雑なサススツクセンセーション間で一貫性があり、より確実に表面的なシナリ主義を予測し、絶対的因果介入を通じて不適切なログを使用して論理故障を修正できます。これらの発見により内面的な自己反省は生成されたコードの確認の可変情報を確立しました。私たちのコードは https://github.com/bruno686/coderciruit のであります
Original Content
arXiv:2602.07080v1 Announce Type: cross
Abstract: Current paradigms for code verification rely heavily on external mechanisms-such as execution-based unit tests or auxiliary LLM judges-which are often labor-intensive or limited by the judging model's own capabilities. This raises a fundamental, yet unexplored question: Can an LLM's functional correctness be assessed purely from its internal computational structure? Our primary objective is to investigate whether the model's neural dynamics encode internally decodable signals that are predictive of logical validity during code generation. Inspired by mechanistic interpretability, we propose to treat code verification as a mechanistic diagnostic task, mapping the model's explicit algorithmic trajectory into line-level attribution graphs. By decomposing complex residual flows, we aim to identify the structural signatures that distinguish sound reasoning from logical failure within the model's internal circuits. Analysis across Python, C++, and Java confirms that intrinsic correctness signals are robust across diverse syntaxes. Topological features from these internal graphs predict correctness more reliably than surface heuristics and enable targeted causal interventions to fix erroneous logic. These findings establish internal introspection as a decodable property for verifying generated code. Our code is at https:// github.com/bruno686/CodeCircuit.