Back to list
arxiv_cs_ai 2026年4月24日

LLM 生成テキストの検出のための潜在報酬モデルを用いたゼロショット検出

Zero-Shot Detection of LLM-Generated Text via Implicit Reward Model

Translated: 2026/4/24 20:24:43
zero-shotllmreward-modeltext-detectionreinforcement-learning

Japanese Translation

arXiv:2604.21223v1 Announce Type: cross 摘要: 大規模言語モデル(LLMs)は、様々なタスクにおいて驚くべき能力を示しています。しかし、人間のようなテキストを生成する能力は、潜在的な悪用の懸念を提起しています。これは、LLM 生成テキストを検出するための信頼性が高く効果的な手法の必要性を浮き彫りにしました。本稿では、LLM 生成テキスト検出に潜力的な報酬モデル(IRM)を活用した新しいゼロショット手法を提案します。このような潜在報酬モデルは、公開されている指示チューニング済みモデルとベースモデルから導出できます。従来の報酬に基づく手法は、偏好の構築とタスク固有の微調整を必要としますが、IRM はそれら任何一方も不要です。我々は DetectRL ベンチマークで IRM を評価し、IRM が既存のゼロショットおよび監視手法を上回る LLM 生成テキスト検出性能を実現できることを示しました。

Original Content

arXiv:2604.21223v1 Announce Type: cross Abstract: Large language models (LLMs) have demonstrated remarkable capabilities across various tasks. However, their ability to generate human-like text has raised concerns about potential misuse. This underscores the need for reliable and effective methods to detect LLM-generated text. In this paper, we propose IRM, a novel zero-shot approach that leverages Implicit Reward Models for LLM-generated text detection. Such implicit reward models can be derived from publicly available instruction-tuned and base models. Previous reward-based method relies on preference construction and task-specific fine-tuning. In comparison, IRM requires neither preference collection nor additional training. We evaluate IRM on the DetectRL benchmark and demonstrate that IRM can achieve superior detection performance, outperforms existing zero-shot and supervised methods in LLM-generated text detection.