Back to list
arxiv_cs_lg 2026年4月24日

Auto-ART: 構造化された文書総合と自動的敵対的頑健性テスト

Auto-ART: Structured Literature Synthesis and Automated Adversarial Robustness Testing

Translated: 2026/4/24 20:06:05
autoartadversarial-robustnessmachine-learninggradient-maskingnist-ai-rmf

Japanese Translation

arXiv:2604.20704v1 Announce Type: cross\n要約: 敵対的頑健性評価は、信頼性の高い ML デプロイメントのあらゆる主張の基盤となっていますが、この分野は断片的なプロトコルと検出されていない勾配マスクの影響下にあります。私たちは 2 つの貢献を提供します。(1) 構造化合成。私たちは 2020 年から 2026 年までの 9 つの学術誌の Corpus ソースを 7 つの補完的なプロトコルを通じて分析し、この分野のコンセンサスと未解決の課題に関する初のエンドツーエンド構造化解析を生み出しました。(2) Auto-ART フレームワーク。私たちは、特定されたギャップを実際化する開 source の Auto-ART フレームワークを導入しました。これは 50 以上の攻撃、28 の防御モジュール、頑健性診断インデックス (RDI)、および勾配マスク検出を含みます。複数のノルム評価(l1/l2/linf/semantique/spatial)を支援し、NIST AI RMF、OWASP LLM Top 10、EU AI Act とのコンプライアンスマッピングを行います。RobustBench 上の経験的検証は、Auto-ART の事前スクリーニングがフラグメントされたケースの 92% で勾配マスクを特定することを示唆しています。また、RDI ランキングは完全な AutoAttack と強く相関しています。複数のノルム評価は、最新モデルにおける平均と最悪ケースの頑健性の間に 23.5pp のギャップを暴露しました。以前は、構造化されたメタ科学的分析と、文献のギャップを工学の評価フレームワークへ架橋する実行可能な評価フレームワークを結合した研究はありませんでした。

Original Content

arXiv:2604.20704v1 Announce Type: cross Abstract: Adversarial robustness evaluation underpins every claim of trustworthy ML deployment, yet the field suffers from fragmented protocols and undetected gradient masking. We make two contributions. (1) Structured synthesis. We analyze nine peer-reviewed corpus sources (2020--2026) through seven complementary protocols, producing the first end-to-end structured analysis of the field's consensus and unresolved challenges. (2) Auto-ART framework. We introduce Auto-ART, an open-source framework that operationalizes identified gaps: 50+ attacks, 28 defense modules, the Robustness Diagnostic Index (RDI), and gradient-masking detection. It supports multi-norm evaluation (l1/l2/linf/semantic/spatial) and compliance mapping to NIST AI RMF, OWASP LLM Top 10, and the EU AI Act. Empirical validation on RobustBench demonstrates that Auto-ART's pre-screening identifies gradient masking in 92% of flagged cases, and RDI rankings correlate highly with full AutoAttack. Multi-norm evaluation exposes a 23.5 pp gap between average and worst-case robustness on state-of-the-art models. No prior work combines such structured meta-scientific analysis with an executable evaluation framework bridging literature gaps into engineering.