Back to list
科学機械学習における可読性に関する定義と重要性
On the definition and importance of interpretability in scientific machine learning
Translated: 2026/4/24 20:07:40
Japanese Translation
arXiv:2505.13510v3 発表形式:置き換え
要旨:大規模データセットで訓練されたニューラルネットワークは、多くの物理現象の記述と予測に成功しており、それらは従来の単純な数式的表現から構成される科学モデルと異なり、自身の知見を科学知識の体系に統合できないという感覚を抱かれています。機械学習が人間にとって理解可能な関係を生成できないという批判は、より伝統的な科学形式からの離脱として「可読性」という概念に集約されています。可読性への関心が高まるにつれ、研究者たちは予測モデルだけでなく、関心のあるシステムの基本的な原則を解明することを求めています。しかし、文献では可読性の定義や、それが科学において果たす正確な役割に関する明確な理解は不足しています。本稿では、方程式発見と記号的な回帰の研究者たちが、可読性の概念と疎性(スパarsity)の概念を混同しているという主張を行います。我々は、科学界外から提案された可読性機械学習の主要な論文をレビューし、それらが提示する定義と方法は、科学機械学習(SciML)の可読性に関する問いを導き出すのに役立っていても、この新しい目的に対しては不十分であるとするのを示します。これらの欠如を指摘し、我々は物理科学向けの可読性の運用定義を提案します。我々の可読性の概念は、機制的な理解を数学的疎性よりも重視します。これは無害にみえるかもしれませんが、この機能的な重視は、疎性がしばしば不必要であることを示しています。また、事前知識が欠如している場合、可読性の高い科学発見の可能性にも疑問を投げかけます。我々は、科学機械学習における可読性に正確かつ哲学的に裏打ちされた定義を提案し、データ駆動型の科学的未来の実現における最も重大な障壁に焦点を当てるよう研究の努力を集中的にする助けになると考えています。
Original Content
arXiv:2505.13510v3 Announce Type: replace
Abstract: Though neural networks trained on large datasets have been successfully used to describe and predict many physical phenomena, there is a sense among scientists that, unlike traditional scientific models comprising simple mathematical expressions, their findings cannot be integrated into the body of scientific knowledge. Critics of machine learning's inability to produce human-understandable relationships have converged on the concept of "interpretability" as its point of departure from more traditional forms of science. As the growing interest in interpretability has shown, researchers in the physical sciences seek not just predictive models, but also to uncover the fundamental principles that govern a system of interest. However, clarity around a definition of interpretability and the precise role that it plays in science is lacking in the literature. In this work, we argue that researchers in equation discovery and symbolic regression tend to conflate the concept of sparsity with interpretability. We review key papers on interpretable machine learning from outside the scientific community and argue that, though the definitions and methods they propose can inform questions of interpretability for scientific machine learning (SciML), they are inadequate for this new purpose. Noting these deficiencies, we propose an operational definition of interpretability for the physical sciences. Our notion of interpretability emphasizes understanding of the mechanism over mathematical sparsity. Innocuous though it may seem, this emphasis on mechanism shows that sparsity is often unnecessary. It also questions the possibility of interpretable scientific discovery when prior knowledge is lacking. We believe a precise and philosophically informed definition of interpretability in SciML will help focus research efforts toward the most significant obstacles to realizing a data-driven scientific future.