Back to list
学習による相互作用的最適化:マルチエージェント言語システムの端到端最適化に向けて
Learning to Communicate: Toward End-to-End Optimization of Multi-Agent Language Systems
Translated: 2026/4/24 20:18:32
Japanese Translation
arXiv:2604.21794v1 発表 タイプ:新
要約: 大規模言語モデル(LLM)上で構築されたマルチエージェントシステムは、複雑な推論タスクにおける強力なパフォーマンスを示していますが、従来の研究はエージェントの役割とオーケストレーションに焦点を当て、エージェント間の通信を固定されたインターフェースとして扱います。キー・バリューキャッシュなどの内部表現を通じた潜在通信は、テキストベースのプロトコルに対して有望な代替手段ですが、既存のアプローチはエージェント間の推論と通信を同時に最適化していません。そのため、我々はマルチエージェントシステムの学習可能な構成要素として潜在通信を扱うフレームワーク「DiffMAS」を提案しました。DiffMAS はマルチエージェントの潜在軌道に対するパラメータ効率の良い上流方向学習を行い、エージェントが相互作用を通じて情報がどのようにエンコード・デコードされるべきかを共同で学習できます。数学的推論、科学的質問解答、コード生成、そして一般知能ベンチマークにおける実験では、DiffMAS は単独エージェント推論、テキストベースマルチエージェントシステム、および以前の潜在通信手法と比較して一貫して推論精度とデコード安定性を向上させ、AIME24 で 26.7%、GPQA-Diamond で 20.2% を達成し、推論ベンチマーク全体で一貫した改善が見られました。
Original Content
arXiv:2604.21794v1 Announce Type: new
Abstract: Multi-agent systems built on large language models have shown strong performance on complex reasoning tasks, yet most work focuses on agent roles and orchestration while treating inter-agent communication as a fixed interface. Latent communication through internal representations such as key-value caches offers a promising alternative to text-based protocols, but existing approaches do not jointly optimize communication with multi-agent reasoning. Therefore we propose DiffMAS, a training framework that treats latent communication as a learnable component of multi-agent systems. DiffMAS performs parameter-efficient supervised training over multi-agent latent trajectories, enabling agents to jointly learn how information should be encoded and interpreted across interactions. Experiments on mathematical reasoning, scientific QA, code generation, and commonsense benchmarks show that DiffMAS consistently improves reasoning accuracy and decoding stability over single-agent inference, text-based multi-agent systems, and prior latent communication methods, achieving 26.7% on AIME24, 20.2% on GPQA-Diamond, and consistent gains across reasoning benchmarks.