Back to list
arxiv_cs_lg 2026年2月10日

騒音を突き破る:機械学習原子間ポテンシャルの頑健な訓練ためのリアルタイムアウトリーヤー検出

Cutting Through the Noise: On-the-fly Outlier Detection for Robust Training of Machine Learning Interatomic Potentials

Translated: 2026/3/15 8:09:36
machine-learninginteratomic-potentialsoutlier-detectionunsupervised-learningmaterials-science

Japanese Translation

機械学習原子間ポテンシャルの精度は、数値ノイズを含む参照データに支障を被ります。これは、収束していないまたは一貫性のない電子構造計算に起因することが多く、特定するのが困難です。既存の緩和手法(手動フィルタリングや異常値の反復精錬)は、専門家の多大な手作業或多額の再訓練サイクルを要し、大規模データセットのスケーラビリティに困難をもたらします。そこで、追加の参照計算を必要としないリアルタイムの異常値検出スキームを導入しました。指数移動平均を通じて損失分布を追跡することで、この監督された手法は単一の訓練実行中に異常値を特定します。この手法はオーバーフィッティングを防ぎ、反復精錬のベースライン性能に相当しながらも、大幅に削減されたオーバーヘッドを実現します。非収束した参照データから正確な物理観測量(拡散係数を含まず)を再構成することで、この手法の有効性が示されました。さらに、SPICE データセット上で有機化学のファウンデーションモデルを訓練することによって、そのスケーラビリティを検証し、エネルギー誤差を 3 分の 1 に低下させました。このフレームワークは、不完美なデータセット上での頑健なモデル訓練のための、シンプルな自動化された解決策を提供します。

Original Content

arXiv:2602.08849v1 Announce Type: cross Abstract: The accuracy of machine learning interatomic potentials suffers from reference data that contains numerical noise. Often originating from unconverged or inconsistent electronic-structure calculations, this noise is challenging to identify. Existing mitigation strategies such as manual filtering or iterative refinement of outliers, require either substantial expert effort or multiple expensive retraining cycles, making them difficult to scale to large datasets. Here, we introduce an on-the-fly outlier detection scheme that automatically down-weights noisy samples, without requiring additional reference calculations. By tracking the loss distribution via an exponential moving average, this unsupervised method identifies outliers throughout a single training run. We show that this approach prevents overfitting and matches the performance of iterative refinement baselines with significantly reduced overhead. The method's effectiveness is demonstrated by recovering accurate physical observables for liquid water from unconverged reference data, including diffusion coefficients. Furthermore, we validate its scalability by training a foundation model for organic chemistry on the SPICE dataset, where it reduces energy errors by a factor of three. This framework provides a simple, automated solution for training robust models on imperfect datasets across dataset sizes.