Back to list
arxiv_cs_ai 2026年2月10日

Correct: コンテキストに関連した確率論的対比に基づくシフト状態校正

CoRect: Context-Aware Logit Contrast for Hidden State Rectification to Resolve Knowledge Conflicts

Translated: 2026/3/7 13:25:20
natural-language-processingknowledge-conflict-resolutionretrieval-augmented-generation

Japanese Translation

「記憶強化生成」(RAG)はしばしば知識衝突に直面する傾向があります。それはモデル内部のパラメトリックな知識が抽出された情報に優先します」というモデル内を理解しません。以前のソリューションには主に、表面的な解釈調整や重み編集などが含まれており、これは正確な目標が必要です。層別での分析を通じて、この失敗の原因はパラメトリックな抑制現象だと特定しています:特に、深い層では特定されたFFN層がコンテキストスネイクの表現を記憶した事前知識に書き越してしまうというものです。それを解決するために提案されているのが「コウレクト」(Context-Aware Logit Contrast for Hidden State Rectification)です。確率的ログアウトからコーデックに関連も無関連の戻すトランザ克を行う、間のことによりパラメriticな偏差を特定するため、正しくて情報が証明に支えられた情報を保存するためにシフト状態校正を行います。 Across 会話型アシスタント (QA) および要約ベンチマークでは Correctの評価は信頼性と hallucinationsの削減を改善しました。

Original Content

arXiv:2602.08221v1 Announce Type: cross Abstract: Retrieval-Augmented Generation (RAG) often struggles with knowledge conflicts, where model-internal parametric knowledge overrides retrieved evidence, leading to unfaithful outputs. Existing approaches are often limited, relying either on superficial decoding adjustments or weight editing that necessitates ground-truth targets. Through layer-wise analysis, we attribute this failure to a parametric suppression phenomenon: specifically, in deep layers, certain FFN layers overwrite context-sensitive representations with memorized priors. To address this, we propose CoRect (Context-Aware Logit Contrast for Hidden State Rectification). By contrasting logits from contextualized and non-contextualized forward passes, CoRect identifies layers that exhibit high parametric bias without requiring ground-truth labels. It then rectifies the hidden states to preserve evidence-grounded information. Across question answering (QA) and summarization benchmarks, CoRect consistently improves faithfulness and reduces hallucinations compared to strong baselines.