Back to list
行間の読み取り:単一方向会話問題
Reading Between the Lines: The One-Sided Conversation Problem
Translated: 2026/4/20 11:07:16
Japanese Translation
arXiv:2511.03056v2 Announce Type: replace-cross
要旨:対話型 AI は、電話診療、コールセンター、スマートグラスといった一部の現実世界の環境において、対話の一方のみが記録されているという制約に直面しています。我々はこれを単一方向会話問題(1SC)として形式化し、対話の一方を推論して学習することを定義しました。我々は 2 つのタスクを調査した:(1)リアルタイム用途用の欠けている発話者分のトークンを再構成すること、および(2)一方の会話を元にサマリーを生成すること。MultiWOZ、DailyDialog、Candor のマルチタスクベンチマークを、プロンプトとファインチューニングされたモデルを用いて、人的 A/B テストと「LLM-as-a-judge」指標で評価した結果、未来のトークンへのアクセスや発話長の情報がある場合に再構成性が向上し、プレースホルダープロンプトはハルシネーションを緩和でき、大規模モデルはプロンプトだけで有望な再構成を生成できる一方で、小規模モデルはファインチューニングが必要であるという結論を得た。さらに、欠けているトークンを再構成しなくても高品質なサマリーを生成可能であることが示唆された。1SC を新たな課題として提示し、プライバシー配慮型の対話型 AI への一歩となる有望な成果を報告した。
Original Content
arXiv:2511.03056v2 Announce Type: replace-cross
Abstract: Conversational AI is constrained in many real-world settings where only one side of a dialogue can be recorded, such as telemedicine, call centers, and smart glasses. We formalize this as the one-sided conversation problem (1SC): inferring and learning from one side of a conversation. We study two tasks: (1) reconstructing the missing speaker's turns for real-time use cases, and (2) generating summaries from one-sided transcripts. Evaluating prompting and finetuned models on MultiWOZ, DailyDialog, and Candor with both human A/B testing and LLM-as-a-judge metrics, we find that access to one future turn and information about utterance length improves reconstruction, placeholder prompting helps to mitigate hallucination, and while large models generate promising reconstructions with prompting, smaller models require finetuning. Further, high-quality summaries can be generated without reconstructing missing turns. We present 1SC as a novel challenge and report promising results that mark a step toward privacy-aware conversational AI.