Back to list
arxiv_cs_cv 2026年2月10日

学習してはいけない箇所:信頼できる意思決定のための Prior-Aligned Training と Subset-based Attribution Constraints

Where Not to Learn: Prior-Aligned Training with Subset-based Attribution Constraints for Reliable Decision-Making

Translated: 2026/2/11 4:19:42

Japanese Translation

arXiv:2602.07008v1 アナウンス種別: new 要旨: 信頼できるモデルは単に正しく予測するだけでなく、受け入れ可能な証拠によって決定を正当化できるべきである。しかし従来の監督学習は通常クラスレベルのラベルしか提供しないため、モデルは意図された証拠ではなくショートカット相関を利用して高い精度を達成してしまうことがある。人間のprior(事前知識)はこのような挙動を制約するのに役立つが、学習された表現がしばしば人間の知覚から乖離するため、モデルをこれらのpriorに整合させることは依然として困難である。 この課題に対処するために、我々は attribution-based human prior alignment 手法を提案する。人間のpriorをモデルが依拠すべき入力領域(例: bounding boxes/バウンディングボックス)として符号化し、高忠実な subset-selection-based attribution アプローチを活用して学習中にモデルの決定根拠を露呈させる。アトリビューション領域が prior 領域から大きく逸脱した場合、我々は off-prior evidence への依存を罰則し、モデルがアトリビューションを意図された領域へ移すよう促す。これは、人間のpriorにより誘導される attribution constraints を課す訓練目的を通じて実現される。 我々は本手法を画像分類タスクおよび MLLM-based GUI agent モデルにおけるクリック意思決定タスクで検証した。従来の分類設定と autoregressive generation の両方において、human prior alignment はタスク精度を一貫して向上させると同時に、モデルの意思決定の妥当性(reasonability)も高めた。

Original Content

arXiv:2602.07008v1 Announce Type: new Abstract: Reliable models should not only predict correctly, but also justify decisions with acceptable evidence. Yet conventional supervised learning typically provides only class-level labels, allowing models to achieve high accuracy through shortcut correlations rather than the intended evidence. Human priors can help constrain such behavior, but aligning models to these priors remains challenging because learned representations often diverge from human perception. To address this challenge, we propose an attribution-based human prior alignment method. We encode human priors as input regions that the model is expected to rely on (e.g., bounding boxes), and leverage a highly faithful subset-selection-based attribution approach to expose the model's decision evidence during training. When the attribution region deviates substantially from the prior regions, we penalize reliance on off-prior evidence, encouraging the model to shift its attribution toward the intended regions. This is achieved through a training objective that imposes attribution constraints induced by the human prior. We validate our method on both image classification and click decision tasks in MLLM-based GUI agent models. Across conventional classification and autoregressive generation settings, human prior alignment consistently improves task accuracy while also enhancing the model's decision reasonability.