Back to list
arxiv_cs_lg 2026年4月24日

LLM を用いた説明可能な AML 分類:証拠抽出と反事実チェック

Explainable AML Triage with LLMs: Evidence Retrieval and Counterfactual Checks

Translated: 2026/4/24 20:01:29
explainable-aianti-money-launderinglarge-language-modelsretrieval-augmented-generationcounterfactual-reasoning

Japanese Translation

arXiv:2604.19755v1 Announce Type: cross 摘要:反マネーロンダリング(AML)取引監視では、厳格な監査およびガバナンス制約下で迅速に分類処理が必要な大量の警報が発生します。大型言語モデル(LLMs)は多様な証拠を要約し、根拠を草案化する能力がありますが、ハルシネーションや不確かな根拠、または基礎となる判断に忠実でない説明が存在する恐れにより、規制されたワークフローにおいて無抑制な生成はリスクが高いです。本稿では、分類を「証拠制約付き意思決定プロセス」として扱う説明可能な AML 分類枠組みを提案します。当社の手法は、(i) ポリシーや類型ガイド、顧客文脈、警報トリガー、取引サブグラフからリetriev アウグメントされた証拠束の結合、(ii) 明確な引用を必須とし、支持する証拠と矛盾または欠如する証拠を分離する構造化された LLM 出力契約、(iii) 三分類推奨とその根拠が一貫した変化を示すか検証する最小限かつ合理的な摂動による反事実チェックの 3 つを組み合わせます。我々は公開合成 AML ベンチマークとシミュレーターで評価し、ルール、タブルおよびグラフ機械学習の基準モデル、および LLM 単独/RAG 単独のバリアントと比較しました。結果は、証拠の根拠性が監査可能性を大幅に向上させ、数値およびポリシーハルシネーション誤差を削減することを示しており、さらに反事実検証は意思決定関連の説明可能性と頑健性を向上させ、全体の分類性能を最適化(PR-AUC 0.75; Escalate F1 0.62)し、強い根拠性と忠実性指標(引用有効性 0.98; 証拠サポート 0.88; 反事実忠実性 0.76)を提供しました。これらの見解は、追跡可能性と防衛可能性のコンプライアンス要件を犠牲にすることなく、実用的な意思決定サポートを提供できる管理され、検証可能な LLM システムが存在することを示唆しています。

Original Content

arXiv:2604.19755v1 Announce Type: cross Abstract: Anti-money laundering (AML) transaction monitoring generates large volumes of alerts that must be rapidly triaged by investigators under strict audit and governance constraints. While large language models (LLMs) can summarize heterogeneous evidence and draft rationales, unconstrained generation is risky in regulated workflows due to hallucinations, weak provenance, and explanations that are not faithful to the underlying decision. We propose an explainable AML triage framework that treats triage as an evidence-constrained decision process. Our method combines (i) retrieval-augmented evidence bundling from policy/typology guidance, customer context, alert triggers, and transaction subgraphs, (ii) a structured LLM output contract that requires explicit citations and separates supporting from contradicting or missing evidence, and (iii) counterfactual checks that validate whether minimal, plausible perturbations lead to coherent changes in both the triage recommendation and its rationale. We evaluate on public synthetic AML benchmarks and simulators and compare against rules, tabular and graph machine-learning baselines, and LLM-only/RAG-only variants. Results show that evidence grounding substantially improves auditability and reduces numerical and policy hallucination errors, while counterfactual validation further increases decision-linked explainability and robustness, yielding the best overall triage performance (PR-AUC 0.75; Escalate F1 0.62) and strong provenance and faithfulness metrics (citation validity 0.98; evidence support 0.88; counterfactual faithfulness 0.76). These findings indicate that governed, verifiable LLM systems can provide practical decision support for AML triage without sacrificing compliance requirements for traceability and defensibility.