Back to list
arxiv_cs_ai 2026年4月24日

MATRAG: 多エージェントによる透明性のある検索拡張生成による説明可能な推薦

MATRAG: Multi-Agent Transparent Retrieval-Augmented Generation for Explainable Recommendations

Translated: 2026/4/24 20:19:32
matragrecommender-systemslarge-language-modelsknowledge-graphsexplainable-ai

Japanese Translation

arXiv:2604.20848v1 Announce Type: cross 摘要:大規模言語モデル(LLM)に基づく推薦システムは、ユーザーの好みを理解し、パーソナライズされた提案を生成する顕著な能力を証明してきた。しかし、既存のアプローチは透明性、知識の根拠、およびユーザーの信頼を醸成する整合的な説明を提供する能力において、重要な課題に直面している。私たちは、説明可能な推薦を提供するため、多エージェント協調と知識グラフ拡張の検索を組み合わせる新しい枠組みである MATRAG(Multi-Agent Transparent Retrieval-Augmented Generation)を導入した。MATRAG は、ユーザーの好みを構築する動的なプロファイルを作成するユーザーモデリングエージェント、知識グラフから半値的特徴を抽出するアイテム分析エージェント、協調信号とコンテンツベース信号を統合する推理エージェント、そして検索された知識に根ざした自然言語の正当化を生成する説明エージェントという、4 つの専門的なエージェントを採用している。当フレームワークは、説明の忠実性と関連性を定量化する透明性スコアリング機構を統合している。3 つのベンチマークデータセット(Amazon レビュー、MovieLens-1M、Yelp)で行った大規模な実験は、MATRAG が最先端の性能を達成し、主要なベースラインと比較して推薦精度を Hit Rate で 12.7%、NDCG で 15.3% 向上させたことを示している。また、人間評価により、ドメイン専門家から生成された説明が「役に立ち、信頼できる」と評価された割合が 87.4% であることが確認された。私たちの研究は、透明性の高いエージェント系推薦システムのための新しいベンチマークを確立し、LLM に基づく推薦器を実環境に展開するための実用的な知見を提供する。

Original Content

arXiv:2604.20848v1 Announce Type: cross Abstract: Large Language Model (LLM)-based recommendation systems have demonstrated remarkable capabilities in understanding user preferences and generating personalized suggestions. However, existing approaches face critical challenges in transparency, knowledge grounding, and the ability to provide coherent explanations that foster user trust. We introduce MATRAG (Multi-Agent Transparent Retrieval-Augmented Generation), a novel framework that combined multi-agent collaboration with knowledge graph-augmented retrieval to deliver explainable recommendations. MATRAG employs four specialized agents: a User Modeling Agent that constructs dynamic preference profiles, an Item Analysis Agent that extracts semantic features from knowledge graphs, a Reasoning Agent that synthesizes collaborative and content-based signals, and an Explanation Agent that generates natural language justifications grounded in retrieved knowledge. Our framework incorporates a transparency scoring mechanism that quantifies explanation faithfulness and relevance. Extensive experiments on three benchmark datasets (Amazon Reviews, MovieLens-1M, and Yelp) demonstrate that MATRAG achieves state-of-the-art performance, improving recommendation accuracy by 12.7\% (Hit Rate) and 15.3\% (NDCG) over leading baselines, while human evaluation confirms that 87.4\% of generated explanations are rated as helpful and trustworthy by domain experts. Our work establishes new benchmarks for transparent, agentic recommendation systems and provides actionable insights for deploying LLM-based recommenders in production environments.