Back to list
簡素なエージェントの促進:イベントログ予測のためのアンサンブル方法
Promoting Simple Agents: Ensemble Methods for Event-Log Prediction
Translated: 2026/4/24 20:27:46
Japanese Translation
arXiv:2604.21629v1 Announce Type: cross
要旨:本稿では、ストリーミングイベントログにおける次のアクティビティ予測のために、軽量自機状モデル(n-グラム)をニューラルアーキテクチャ(LSTM、Transformer)と比較します。合成パターンおよび 5 つの現実世界のプロセスマイニングデータセットにおける実験から、適切なコンテキストウィンドウを持つ n-グラムは、ニューラルモデルと同等の精度を達成する一方で、大幅に少ないリソースを必要とすることが示されました。ウィンドウ付きニューラルアーキテクチャは不安定な性能パターンを示すのに対し、n-グラムは安定で一貫した精度を提供します。当稿では、古典的なアンサンブル手法(投票)が n-グラムのパフォーマンスを向上させることが示されていますが、推論段階で多数のエージェントを並列で実行する必要があるため、推論時におけるオーバーヘッド(メモリ消費およびレイテンシ)が増加する問題があります。本稿では、推論の間で 2 つのアクティブなモデルを選択的に切り替える「促進アルゴリズム」という新しいアンサンブル手法を提案し、古典的な投票スキームと比較してオーバーヘッドを削減しました。現実世界のデータセットにおいて、これらのアンサンブル手法は、計算コストが低いにもかかわらず、ウィンドウ付きではなくニューラルモデルの精度に匹敵するかそれを超える性能を発揮しました。
Original Content
arXiv:2604.21629v1 Announce Type: cross
Abstract: We compare lightweight automata-based models (n-grams) with neural architectures (LSTM, Transformer) for next-activity prediction in streaming event logs. Experiments on synthetic patterns and five real-world process mining datasets show that n-grams with appropriate context windows achieve comparable accuracy to neural models while requiring substantially fewer resources. Unlike windowed neural architectures, which show unstable performance patterns, n-grams provide stable and consistent accuracy. While we demonstrate that classical ensemble methods like voting improve n-gram performance, they require running many agents in parallel during inference, increasing memory consumption and latency. We propose an ensemble method, the promotion algorithm, that dynamically selects between two active models during inference, reducing overhead compared to classical voting schemes. On real-world datasets, these ensembles match or exceed the accuracy of non-windowed neural models with lower computational cost.