Back to list
arxiv_cs_ai 2026年2月10日

BiGTex: 断組んだグラフテキストと固有のアーキテクチャで構築した文字属性グラフにおける構造的な信号とセマンティック信号の統合

Integrating Structural and Semantic Signals in Text-Attributed Graphs with BiGTex

Translated: 2026/2/14 7:14:14

Japanese Translation

本文は、文字属性グラフ(TAG)が表現学習において頂点付与文字のsemantic richnessとグラフの構造的依存性をモデルに捉える難易度が高いことを示しています。GNNはトポロジカル情報を効果的にモデリングしますが、これらにはunstructured textへの処理の能力がない一方で、LLMはこれらについて精通していますが通常グラップフ構造を無知です。 この仕事では、互換性のないグラフテキスト(BiGTex)を提唱し、有効なパラメータFine-tuningを使用して、GNNと大型言語モデル(LLM)間で固有的な連接を積み重ねる新式アーキテクチャを開発しました。それぞれの部は構文と構造的な表現間に相互の注意を許容し、情報が両方の方向から流向し続けるようにします。textによるstructureに影響を与え、structureをテキスト解釈に向ける。 提唱されたアーキテクチャにはLoRAで学習されましたパラメータ効率的なFine-tuningを使用しました。LLMは凍結されていますが、タスク固有の信号と適応します。 実験結果は、BiGTexノード分類のための状態オブ・ザ・エンド-アーキテクチャの性能およびリンク予測の効果を評価し示しました。また、そのモデルの成功に対してsoft promptingとbi-directional attentionの重要性についての解説も行われました。

Original Content

arXiv:2504.12474v4 Announce Type: replace-cross Abstract: Text-attributed graphs (TAGs) present unique challenges in representation learning by requiring models to capture both the semantic richness of node-associated texts and the structural dependencies of the graph. While graph neural networks (GNNs) excel at modeling topological information, they lack the capacity to process unstructured text. Conversely, large language models (LLMs) are proficient in text understanding but are typically unaware of graph structure. In this work, we propose BiGTex (Bidirectional Graph Text), a novel architecture that tightly integrates GNNs and LLMs through stacked Graph-Text Fusion Units. Each unit allows for mutual attention between textual and structural representations, enabling information to flow in both directions, text influencing structure and structure guiding textual interpretation. The proposed architecture is trained using parameter-efficient fine-tuning (LoRA), keeping the LLM frozen while adapting to task-specific signals. Extensive experiments on five benchmark datasets demonstrate that BiGTex achieves state-of-the-art performance in node classification and generalizes effectively to link prediction. An ablation study further highlights the importance of soft prompting and bi-directional attention in the model's success.