Back to list
MIXRAG:グラフ理解と質問回答に対する混合の専門家による再取得強化生成
MIXRAG : Mixture-of-Experts Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering
Translated: 2026/2/14 7:18:59
Japanese Translation
大規模言語モデル(LLMs)が様々な分野での驚異的な性能を実現し、知識に富む分野ではhallucinationに苦しんでいます。この問題に対して、再取得補助生成(RAG)はLLMに外部の知識源を利用することで、単なる静止した事前訓練のコーラルから一歩前に立てます。このようなソースとしてはテキストグラフが、構造的なまたと知的で栄養豊富な情報を持ち、より正確で解釈可能である理由により、この分野を引き立てる反芻があります。 その結果、グラフに基づくRAGシステムの興味が増しています。 これら中には、現在の多くのアプローチはsingle retrieverを使用して、関連するサブグラフを見つける一貫した方法に制限があるため、複雑な質問を捉える能力が限定されています。さらに、これらのシステムは関連性にどのように評価を下すべきであるかわからないために、不必要なノイズにより曖昧となるのが問題です。 これらの課題に対処するために、我々はこの論文でMIXRAGと呼ばれる混合専門家に基づくグラフ-RAGフレームワークを提案する予定です。これはさまざまな質問を捉えるための多様な対象のための異なるグラッファーを持っています。さらに、個々のリトリーバは特定のグラフのセマンティックの一部に焦点を当てています(エントリや関係もしくはサブグラフの topology)。 Mixture-of-Expertsモジュールは入力された質問に基づいて適応的に選択し、重要なリトリーブ者によって再構成します。 また、我々は特定のサブグラフからの情報を取得する目的で作られたグラウンドエクスポーザーについて導入します。これは特に関連性が最も高い部分を強調しつつ、不要なノイズへの重みを軽減します。 動的なルーティングコントロール機能により、我々はこれらのアピールを特定するのを助けられるので、MIXRAGは幅広いグラフベースのタスクと異なる分野で効果的です。この論文が承認された後、コードを公開します。
Original Content
arXiv:2509.21391v2 Announce Type: replace-cross
Abstract: Large Language Models (LLMs) have achieved impressive performance across a wide range of applications. However, they often suffer from hallucinations in knowledge-intensive domains due to their reliance on static pretraining corpora. To address this limitation, Retrieval-Augmented Generation (RAG) enhances LLMs by incorporating external knowledge sources during inference. Among these sources, textual graphs provide structured and semantically rich information that supports more precise and interpretable reasoning. This has led to growing interest in graph-based RAG systems. Despite their potential, most existing approaches rely on a single retriever to identify relevant subgraphs, which limits their ability to capture the diverse aspects of complex queries. Moreover, these systems often struggle to accurately judge the relevance of retrieved content, making them prone to distraction by irrelevant noise. To address these challenges, in this paper, we propose MIXRAG, a Mixture-of-Experts Graph-RAG framework that introduces multiple specialized graph retrievers and a dynamic routing controller to better handle diverse query intents. Each retriever is trained to focus on a specific aspect of graph semantics, such as entities, relations, or subgraph topology. A Mixture-of-Experts module adaptively selects and fuses relevant retrievers based on the input query. To reduce noise in the retrieved information, we introduce a query-aware GraphEncoder that carefully analyzes relationships within the retrieved subgraphs, highlighting the most relevant parts while down-weighting unnecessary noise. Empirical results demonstrate that our method achieves state-of-the-art performance and consistently outperforms various baselines. MIXRAG is effective across a wide range of graph-based tasks in different domains. The code will be released upon paper acceptance.