Back to list
arxiv_cs_lg 2026年4月24日

Concept Graph Convolutions: Message Passing in the Concept Space

Concept Graph Convolutions: Message Passing in the Concept Space

Translated: 2026/4/24 19:56:02
concept-graph-convolutionsmessage-passinggraph-neural-networksinterpretabilityarxiv

Japanese Translation

arXiv:2604.20082v1 Announce Type: new Abstract: Graph Neural Networks の予測に対する信頼性は、その不透明な推論プロセスに制限されています。以前の方法では、潜在表現から抽出した概念に基づく説明を通じてグラフネットワークを説明しようとしてきましたが、これらの説明はメッセージパスプロセスそのものの説明には不十分でした。そのためには、ノードレベルの概念に動作することにより解釈性を向上させるために設計された初のグラフ畳み込み、すなわち「Concept Graph Convolution」を提案します。提案された畳み込み層は、構造重みと注意力ベースの重みを組み合わせて、生データと概念表現の組み合わせ上でメッセージパスを実行します。さらに、概念空間だけで動作する純粋な畳み込みのバリエーションも提案しました。私たちの結果は、Concept Graph Convolution が競争的なタスク精度を実現すると同時に、畳み込みステップを通じて概念の進化に対する洞察を増加させ得ることを示しています。

Original Content

arXiv:2604.20082v1 Announce Type: new Abstract: The trust in the predictions of Graph Neural Networks is limited by their opaque reasoning process. Prior methods have tried to explain graph networks via concept-based explanations extracted from the latent representations obtained after message passing. However, these explanations fall short of explaining the message passing process itself. To this aim, we propose the Concept Graph Convolution, the first graph convolution designed to operate on node-level concepts for improved interpretability. The proposed convolutional layer performs message passing on a combination of raw and concept representations using structural and attention-based edge weights. We also propose a pure variant of the convolution, only operating in the concept space. Our results show that the Concept Graph Convolution allows to obtain competitive task accuracy, while enabling an increased insight into the evolution of concepts across convolutional steps.