Back to list
arxiv_cs_lg 2026年4月24日

彩色な図解付きトークン:大規模言語モデル向け人間解釈可能な図のエンコーディング

Colorful Talks with Graphs: Human-Interpretable Graph Encodings for Large Language Models

Translated: 2026/4/24 20:10:00
large-language-modelsgraph-representationweisfeiler-lehmanprompt-engineeringhuman-interpretable

Japanese Translation

arXiv:2602.10386v2 Announce Type: replace 摘要:大規模言語モデル(LLM)は図問題に対して本質的に困難を要します。LLM は非構造化テキストの処理に優れていますが、図タスクは明示的な構造、置換不変性、および計算的に複雑な関係性の処理を必要とするため、テキストベースモデルの表現と不整合を生じます。本稿では、これらの障壁にもかかわらず LLM を図問題に効果的に適用する方法を調査します。我々は、図からテキストへの翻訳に対して人間解釈可能な構造エンコーディング戦略を導入し、図の構造を直接自然言語プロンプトに注入します。私の方法は、Weisfeiler-Lehman(WL)類似クラスの変種を計算し、それらを数値ラベルではなく人間のような彩色トークンにマッピングすることです。重要な洞察は、意味があり、人間が解釈可能な手がかりは、不透明なシンボリックエンコーディングよりも LLM によってより効果的に処理される可能性があることです。複数のアルゴリズム的および予測的図タスクにおける実験結果は、合成データセットと実世界のデータセットの両方において我々の方法による顕著な改善を示しています。我々の方法は局所的および全域範囲の依存性を捉え、LLM のパフォーマンスを向上させます、特に全域図構造を推論を必要とする図タスクにおいて。

Original Content

arXiv:2602.10386v2 Announce Type: replace Abstract: Graph problems are fundamentally challenging for large language models (LLMs). While LLMs excel at processing unstructured text, graph tasks require reasoning over explicit structure, permutation invariance, and computationally complex relationships, creating a mismatch with the representations of text-based models. Our work investigates how LLMs can be effectively applied to graph problems despite these barriers. We introduce a human-interpretable structural encoding strategy for graph-to-text translation that injects graph structure directly into natural language prompts. Our method involves computing a variant of Weisfeiler-Lehman (WL) similarity classes and maps them to human-like color tokens rather than numeric labels. The key insight is that semantically meaningful and human-interpretable cues may be more effectively processed by LLMs than opaque symbolic encoding. Experimental results on multiple algorithmic and predictive graph tasks show the considerable improvements by our method on both synthetic and real-world datasets. By capturing both local and global-range dependencies, our method enhances LLM performance especially on graph tasks that require reasoning over global graph structure.