Back to list
arxiv_cs_ai 2026年4月24日

ミクロな視点のモデル化:注釈者固有の根拠に基づく説明の構築

Fine-Grained Perspectives: Modeling Explanations with Annotator-Specific Rationales

Translated: 2026/4/24 20:28:00
explanation-modelingfine-grained-perspectivesannotator-rationalesnatural-language-inferencegenerative-ai

Japanese Translation

arXiv:2604.21667v1 発表タイプ:クロス 要旨:分散ラベルを用いて視点のモデル化を調査するに留まらず、注釈者の根拠は個々の視点に関する微細なシグナルを提供する。本稿では、注釈者が提供する根拠を用いた微调(fine-tuning)を施して、注釈者固有のラベル予測と対応する説明を連成的にモデル化するためのフレームワークを提案する。分散された自然言語推論(NLI)注釈と注釈者が提供する説明を持つデータセットを用い、表現レベルのユース器パスポート(User Passport)メカニズムを通じて、注釈者の identity および人口統計学的メタデータを条件付けながら予測を行う。さらに、2 つの説明生成アーキテクチャを導入する:後処理に基づくプロンプト型説明生成器、および注釈者条件付分類器の表現を直接生成モデルへ移転する前接ブリッジ型説明生成器。この設計により、個々の注釈者の視点に整合した説明生成が可能となる。当の結果は、説明のモデル化を実行し、基盤となる注釈者意識分類器に対する予測性能を大幅に向上させ、前接ブリッジアプローチはより安定したラベル整合性と高い意味整合性を、後処理アプローチはより強固な文法同率を生み出すことを示している。これらの知見は、微細な視点の表明として説明をモデル化することで、合意のないもののより豊かで忠実な表現が可能であることを示唆する。提案されたアプローチは、注釈者固有の根拠を予測および生成コンポーネントの両方に統合することで、視点主義的モデリングを推進する。

Original Content

arXiv:2604.21667v1 Announce Type: cross Abstract: Beyond exploring disaggregated labels for modeling perspectives, annotator rationales provide fine-grained signals of individual perspectives. In this work, we propose a framework for jointly modeling annotator-specific label prediction and corresponding explanations, fine-tuned on the annotators' provided rationales. Using a dataset with disaggregated natural language inference (NLI) annotations and annotator-provided explanations, we condition predictions on both annotator identity and demographic metadata through a representation-level User Passport mechanism. We further introduce two explainer architectures: a post-hoc prompt-based explainer and a prefixed bridge explainer that transfers annotator-conditioned classifier representations directly into a generative model. This design enables explanation generation aligned with individual annotator perspectives. Our results show that incorporating explanation modeling substantially improves predictive performance over a baseline annotator-aware classifier, with the prefixed bridge approach achieving more stable label alignment and higher semantic consistency, while the post-hoc approach yields stronger lexical similarity. These findings indicate that modeling explanations as expressions of fine-grained perspective provides a richer and more faithful representation of disagreement. The proposed approaches advance perspectivist modeling by integrating annotator-specific rationales into both predictive and generative components.