Back to list
TimePre: 確率的時間系列予報において精度、効率性、安定性の架け橋
TimePre: Bridging Accuracy, Efficiency, and Stability in Probabilistic Time-Series Forecasting
Translated: 2026/4/24 19:53:01
Japanese Translation
arXiv:2511.18539v2 Announce Type: replace-cross
要約: 我々は、確率的時間系列予報 (PTSF) の文脈において、多重選択学習 (MCL) の分布の柔軟性と、多層パーセプトロン (MLP) に基づくモデルの効率性を統合する単純なフレームワークである TimePre を提案します。TimePre の核心である安定化されたインスタンス正規化 (SIN) は、精度、効率性、安定性の間のトレードオフを明示的に解決する正規化レイヤーです。SIN はチャネルごとの統計的なシフトを修正することでハイブリッドアーキテクチャを安定化させ、大規模な仮説崩壊を解消します。6 つのベンチマークデータセットで行われた広範な実験は、TimePre が重要な確率指標において最先端 (SOTA) の精度を達成することを示しています。特に重要なのは、時間抽出速度がサンプリングベースのモデルに比べて桁違いに速く、以前の MCL のアプローチよりも安定していることです。
Original Content
arXiv:2511.18539v2 Announce Type: replace-cross
Abstract: We propose TimePre, a simple framework that unifies the efficiency of Multilayer Perceptron (MLP)-based models with the distributional flexibility of Multiple Choice Learning (MCL) for Probabilistic Time-Series Forecasting (PTSF). Stabilized Instance Normalization (SIN), the core of TimePre, is a normalization layer that explicitly addresses the trade-off among accuracy, efficiency, and stability. SIN stabilizes the hybrid architecture by correcting channel-wise statistical shifts, thereby resolving the catastrophic hypothesis collapse. Extensive experiments on six benchmark datasets demonstrate that TimePre achieves state-of-the-art (SOTA) accuracy on key probabilistic metrics. Critically, TimePre achieves inference speeds that are orders of magnitude faster than sampling-based models, and is more stable than prior MCL approaches.