Back to list
コピー&ペーストを用いて大規模言語モデルの錯覚を軽減する
Copy-Paste to Mitigate Large Language Model Hallucinations
Translated: 2026/2/14 8:05:20
Japanese Translation
Retrieval-Augmented Generation (RAG)により、large language model(LLM)は文脈に適忈した回答が生成できるようになりました。しかし、LLMは提供された文脈に常に信頼していないため、文脈に従った誤りを生じさせ、信頼性を損なうことになります。RAGTruth上での回答のコピー度と文脈ずれした誤りとの逆関連性を通観し、より高いコピー度は誤りの減少に寄与すると観察しました。我々はCopyPasteLLMを取得するために対応2段階への圧倒的コピー度偏好的な回答訓練が必要とします。複数の提示法をご用意し高コピー度回答の効果示されています。高コピー度回答がより優れた文脈忠実性および誤りコントロールを達成します。これらのアプローチはCopyPasteLLMの完全自動化パイプラインによって生成された回答を、Training CopyPasteLLMへの変換に適用できます。FaithEval、ConFiQAおよびPubMedQAでのCopyPasteLLMは両方の反ファクトパターン文脈でベストパフォーマンスであることを示し、FaithEval上で最善のベースラインに12. 2%から24. 5%まで精度改善を達成します。さらに365件のトレーニングサンプルを必要とするためには、その基準データよりも1/50になります。CopyPasteLLM効果を説明するにはContext-パラメータコピー捕捉アルゴリズムをご提案することです。興味深いことにこれはCopyPasteLLMの生成で内部パラメータ知識重視に対応し(既存知に頼ること)ないことが Revealedです。すべてのコードはhttps://github.com/longyongchao/CopyPasteLLMに公開されています
Original Content
arXiv:2510.00508v2 Announce Type: replace-cross
Abstract: While Retrieval-Augmented Generation (RAG) enables large language models (LLMs) to generate contextually grounded responses, contextual faithfulness remains challenging as LLMs may not consistently trust provided context, leading to hallucinations that undermine reliability. We observe an inverse correlation between response copying degree and context-unfaithful hallucinations on RAGTruth, suggesting that higher copying degrees reduce hallucinations by fostering genuine contextual belief. We propose CopyPasteLLM, obtained through two-stage high-copying response preference training. We design three prompting methods to enhance copying degree, demonstrating that high-copying responses achieve superior contextual faithfulness and hallucination control. These approaches enable a fully automated pipeline that transforms generated responses into high-copying preference data for training CopyPasteLLM. On FaithEval, ConFiQA and PubMedQA, CopyPasteLLM achieves best performance in both counterfactual and original contexts, remarkably with 12.2% to 24.5% accuracy improvements on FaithEval over the best baseline, while requiring only 365 training samples -- 1/50th of baseline data. To elucidate CopyPasteLLM's effectiveness, we propose the Context-Parameter Copying Capturing algorithm. Interestingly, this reveals that CopyPasteLLM recalibrates reliance on internal parametric knowledge rather than external knowledge during generation. All codes are available at https://github.com/longyongchao/CopyPasteLLM