Back to list
arxiv_cs_ai 2026年2月10日

TKG-Thinker: 具体的な推論能力付き時空間知識グラフへ向けた動的思考支援のためのエージェント

TKG-Thinker: Towards Dynamic Reasoning over Temporal Knowledge Graphs via Agentic Reinforcement Learning

Translated: 2026/2/14 7:06:33

Japanese Translation

時系列的な知能構造が付与された知識グラフの応答 (TKGQA) は、具体的な時間に関連する質問に応えることを目的としています。 大きな言語モデル(LLMs)はこのTKGQAには重大なポテンシャルを示しており、現在の提示戦略がこれとどのように関連しているかについて二つの主要性から問題を持っています。まず、複雑な時系列制約を持つ状況でその効果が低いのです。次に、静的な提示によりモデルは自律性や一般化能力が制限されます。それは時間的要件をダイナミックに入れた時シリーズ知識グラフ(TKG)に関する環境と動的にインタラクションする機会がないからです。この問題に対する解決策として、「TKG-Thinker」を提案しました。これは、自主的な計画と適応的な抽出機能と共に時系列対象の推論能力を持つ新規のエージェントです。特に、TKG-Thinkerは時シリーズ推論についてダイナミックな多連携交互(TKG)と動的トレーニング戦略を通じて深い推論を行います。まず、thoughtチェーンデータを用いた監督的な細調精則(SFT)がCore計画能力をインストールするとし、その後の reinforcement learning (RL) 関数は複雑な時系列要件に適応するための多相の報酬を使用して推理政策を改善します。統合的なオープンソースL-LLMのベンダープレートでは、TKG-Thinkerのパフォーマンスが最優先され、それ自体の複雑なTKGQA環境内で強力で広範な一般化がもたらされました。

Original Content

arXiv:2602.05818v2 Announce Type: replace Abstract: Temporal knowledge graph question answering (TKGQA) aims to answer time-sensitive questions by leveraging temporal knowledge bases. While Large Language Models (LLMs) demonstrate significant potential in TKGQA, current prompting strategies constrain their efficacy in two primary ways. First, they are prone to reasoning hallucinations under complex temporal constraints. Second, static prompting limits model autonomy and generalization, as it lack optimization through dynamic interaction with temporal knowledge graphs (TKGs) environments. To address these limitations, we propose \textbf{TKG-Thinker}, a novel agent equipped with autonomous planning and adaptive retrieval capabilities for reasoning over TKGs. Specifically, TKG-Thinker performs in-depth temporal reasoning through dynamic multi-turn interactions with TKGs via a dual-training strategy. We first apply Supervised Fine-Tuning (SFT) with chain of thought data to instill core planning capabilities, followed by a Reinforcement Learning (RL) stage that leverages multi-dimensional rewards to refine reasoning policies under intricate temporal constraints. Experimental results on benchmark datasets with three open-source LLMs show that TKG-Thinker achieves state-of-the-art performance and exhibits strong generalization across complex TKGQA settings.