Back to list
タイムーシリーズの理解答策: データ合成とスケジューリングを通じて動的思考の確立
Time Series Reasoning via Process-Verifiable Thinking Data Synthesis and Scheduling for Tailored LLM Reasoning
Translated: 2026/3/7 9:05:52
Japanese Translation
時間系列データは、様々なアプリケーション領域で存在し、 diverseな時間シリーズ作業を解決する理由は長年の目標です。LARGE言語モデル(LLM)の最新の進歩、特にそのリッスン機能を通じて再構築学習(RL)によって開放された能力により、長期間のChain-of-Thought (CoT) リソースを必要とするタスクに対処する新たな機会が開かれています。ただし、LLMのリソースへのアプローチはまだその初歩レベルに留まり、特異な時間系列データ用にカスタマイズされたCoTデータの欠如、未探索のデータスケジューリングによるデータ効率の問題、そして適切な時間系列CoTデータを利するための再構築フレームワークの専用アルゴリズムの不足により、時間序列の理由付けはまだその幼児期に留まっています。この紙で我々は、ターゲットタイムスーシージューニングに関するLLMによる時間系列を特徴付けるための一連のフレームワークであるVeriTime(過程性確認つき)を導入します。まず、データ合成パイプラインを提案し、プロセス的確認つきのオセアノが時間序列とマルチモーダルデータセットを構築します。また、原則的な難易度とタスク間架としての秩序に従った訓練サンプルの配列をデザインします。そして最後に、詳細な複数の目標のリッスンによる2段階の再構築トレーニングを開発して、プロセスレベルで確認つきCoTデータに対して利するようなフィネイググルースな賞と多目的性の賞金を導入します。多数の実験が表明を表明すると、VeriTimeは diversiyな時間序列問題に対するLLMの性能を大幅に伸します。特にこれにより、その専門家のproprietary LLMSと同等あるいはそれを超えるための効果的な論理的思考を収められる軽量な3B, 4Bモデルが達成可能となりました。
Original Content
arXiv:2602.07830v1 Announce Type: new
Abstract: Time series is a pervasive data type across various application domains, rendering the reasonable solving of diverse time series tasks a long-standing goal. Recent advances in large language models (LLMs), especially their reasoning abilities unlocked through reinforcement learning (RL), have opened new opportunities for tackling tasks with long Chain-of-Thought (CoT) reasoning. However, leveraging LLM reasoning for time series remains in its infancy, hindered by the absence of carefully curated time series CoT data for training, limited data efficiency caused by underexplored data scheduling, and the lack of RL algorithms tailored for exploiting such time series CoT data. In this paper, we introduce VeriTime, a framework that tailors LLMs for time series reasoning through data synthesis, data scheduling, and RL training. First, we propose a data synthesis pipeline that constructs a TS-text multimodal dataset with process-verifiable annotations. Second, we design a data scheduling mechanism that arranges training samples according to a principled hierarchy of difficulty and task taxonomy. Third, we develop a two-stage reinforcement finetuning featuring fine-grained, multi-objective rewards that leverage verifiable process-level CoT data. Extensive experiments show that VeriTime substantially boosts LLM performance across diverse time series reasoning tasks. Notably, it enables compact 3B, 4B models to achieve reasoning capabilities on par with or exceeding those of larger proprietary LLMs.