Back to list
arxiv_cs_lg 2026年4月24日

KANMixer:長期時系列予測のための最小限の KAN 中心型ミキサー

KANMixer: a minimal KAN-centered mixer for long-term time series forecasting

Translated: 2026/4/24 20:08:12
kantime-series-forecastingkolmogorov-arnold-networksmachine-learningdeep-learning

Japanese Translation

arXiv:2508.01575v2 Announce Type: replace 要旨: エネルギー管理から気象予報に至るまで、重要な応用を支える長期時系列予測(LTSF)において、信頼性の高い多ステップ予測精度を達成することは依然として挑戦的である。現在のアプローチは MLP や Transformer に基づくものが支配的で、単純な線形写像に頼る場合と、複雑な手作業の誘導バイアスを導入する場合があります。これにより、より表現力豊かで原理的な非線形核を持つモデルがより良い代替案となるかどうかという疑問が生じます。したがって、適応的な基底関数を持つ非線形性の微細な調節を可能にする最近提案された Kolmogorov-Arnold ネットワーク(KAN)が、LTSF パフォーマンスを改善できるか、およびどの設計選択で最も効果的かを調査します。具体的には、マルチスケールプーリングフロントエンド、KAN ベースの時間的ミキシングバックボーン、および予測ヘッドを備えた、軽量で KAN 中心的な構成である KANMixer を提案します。重たい補助モジュールを避けることで、KAN コМПONENT の LTSF における性能を明確に評価可能です。9 つの基線と比較して 28 つのベンチマーク設定において、KANMixer は 16 つの設定で最小二乗誤差(MSE)が最良、11 つの設定で平均絶対誤差(MAE)が最良を実現しました。さらに、3 つの代表的なデータセットに対する広範なアベレーション実験により、KAN の有効性はエッジ関数の選択に強く依存することが示されました。B スプライン基底関数は Fourier 関数やウェーブレット関数の代替よりも優れています。予測ヘッドが gains への寄与が最も大きいです。深い不安定なスタックよりも中程度の深さが好まれます。分解事前知識は MLP に役立ちますが KAN に害を及ぼします。KAN を LTSF に統合するための実践的なガイドに加え、これらの結果は構造的な事前知識とバックボーンの非線形性の間に探索されていない依存関係を明らかにしています:MLP に利益をもたらす設計選択は、KAN を劣化させます。

Original Content

arXiv:2508.01575v2 Announce Type: replace Abstract: Long-term time series forecasting (LTSF) underpins critical applications from energy management to weather prediction, yet achieving reliable multi-step-ahead accuracy remains challenging. Existing LTSF approaches, dominated by MLP- and Transformer-based architectures, either rely on simple linear mappings or introduce increasingly complex hand-crafted inductive biases, raising the question of whether a more expressive and principled nonlinear core could offer a better alternative. Therefore, we investigate whether Kolmogorov-Arnold Networks (KANs), a recently proposed model featuring adaptive basis functions capable of granular modulation of nonlinearities, can improve LTSF performance, and under which design choices they are most effective. Specifically, we propose KANMixer, a minimal KAN-centered architecture consisting of a multi-scale pooling frontend, a KAN-based temporal mixing backbone, and prediction heads. By avoiding heavy auxiliary modules, KANMixer enables a clear assessment of KAN components in LTSF. Across 28 benchmark-horizon settings against nine baselines, KANMixer achieves the best MSE in 16 settings and the best MAE in 11. Furthermore, extensive ablations on three representative datasets show that KAN effectiveness depends strongly on the choice of edge function; B-spline bases outperform Fourier and Wavelet alternatives; the prediction head contributes most to the gains; moderate depth is preferred over deeper unstable stacks; and decomposition priors help MLP but harm KAN. Beyond practical guidance for integrating KAN into LTSF, these results reveal an underexplored dependency between structural priors and backbone nonlinearity: design choices that benefit MLP can degrade KAN.