Back to list
残原因解析に基づく大規模言語モデルと余差構造を使用した方法
Root Cause Analysis Method Based on Large Language Models with Residual Connection Structures
Translated: 2026/3/7 11:16:34
Japanese Translation
複雑で大きなサイズのマイクロサービスアーキテクチャでの残原因ポジショナリングはまだ挑発的であり、マイクロサービス間の複雑な故障伝播とメトリックス、ログ、トレースデータなどの高次元タケビジュアルデータが制限します。さまざまな種類のための根原因アセスメント(RCA)方法。したがって,本論文では残原因ポジショナリングに基づく大規模言語モデル(LLM)を用いたRCLS方法として名付けられたリザースローゼン型の層化融合構造と、大規模な言語モデルのコンテキストレASONING能力がマイクロサービス間の時系列および跨マイクロサービス因果依存関係をモデルリングする余差型の機能的な結合構造を設計して提案されています。CCF-AIOpsマイクロサービスデータセット上の実験結果は、RCLSは強力な正確性と効率を持つことを示しています。
Original Content
arXiv:2602.08804v1 Announce Type: new
Abstract: Root cause localization remain challenging in complex and large-scale microservice architectures. The complex fault propagation among microservices and the high dimensionality of telemetry data, including metrics, logs, and traces, limit the effectiveness of existing root cause analysis (RCA) methods. In this paper, a residual-connection-based RCA method using large language model (LLM), named RC-LLM, is proposed. A residual-like hierarchical fusion structure is designed to integrate multi-source telemetry data, while the contextual reasoning capability of large language models is leveraged to model temporal and cross-microservice causal dependencies. Experimental results on CCF-AIOps microservice datasets demonstrate that RC-LLM achieves strong accuracy and efficiency in root cause analysis.