Back to list
AI 気象モデルにおけるメカニズム的可読性を高めるツール
Mechanistic Interpretability Tool for AI Weather Models
Translated: 2026/4/24 20:05:09
Japanese Translation
arXiv:2604.20467v1 発表タイプ:クロス
要約: 人工知能(AI)気象モデルは急速に向上しており、すでに確立された伝統的な数値気象予報(NWP)との予測精度が競合的です。この新しい手法への信頼を高めるには、予測がどのように生成されているかを理解することが不可欠です。これは、これらの AI 気象モデルがほぼ黒箱として残っているという巨大な課題です。機械学習(ML)の他の分野では、メカニズム的解釈可能性が、予測を生成する構成要素を分析することで ML 予測を理解するための枠組みとして現れてきました。ここでは、メカニズム的解釈可能性の概念を取り入れたオープンソースの高度に適合可能なツールを提示します。このツールはモデルプロセッサの内部潜在表現を整理し、余弦類似度と主成分分析(PCA)を含む初期解析を可能にし、ユーザーが気象学的特徴に関連する潜在空間の方向を特定することを許容します。GraphCast というグラフニューラルネットワークに本ツールを適用し、中緯度のシノプティック規模の波および特定湿度に対する予備的な事例研究を提示しました。これらは、このツールが解釈可能な特徴に対応しているように見える潜在チャンネルの線形結合を識別する能力を示すものです。
Original Content
arXiv:2604.20467v1 Announce Type: cross
Abstract: Artificial Intelligence (AI) weather models are improving rapidly, and their forecasts are already competitive with long-established traditional Numerical Weather Prediction (NWP). To build confidence in this new methodology, it is critical that we understand how these predictions are generated. This is a huge challenge as these AI weather models remain largely black boxes. In other areas of Machine Learning (ML), mechanistic interpretability has emerged as a framework for understanding ML predictions by analysing the building blocks responsible for them. Here we present an open-source, highly adaptable tool which incorporates concepts from mechanistic interpretability. The tool organises internal latent representations from the model processor and allows for initial analyses, including cosine similarity and Principal Component Analysis (PCA), enabling the user to identify directions in latent space potentially associated with meteorological features. Applying our tool to the graph neural network GraphCast, we present preliminary case studies for mid-latitude synoptic-scale waves and specific humidity. These demonstrate the tool's ability to identify linear combinations of latent channels that appear to correspond to interpretable features.