Back to list
論理的推理能力で思考する:少ないトークンで高精度
Thinking with Reasoning Skills: Fewer Tokens, More Accuracy
Translated: 2026/4/24 20:18:19
Japanese Translation
arXiv:2604.21764v1 Announce Type: new
要約:推理モデル (LLMs) は、新しい問題を解く際に、長い中間の推理経路(例:思考連鎖)に大量のトークンを使う傾向がある。本研究では、広範な考察と試行錯誤から抽出した再利用可能な推理スキルを要約・格納し、推論時にこれらのスキルを檢索して今後の推理を導くことを提案する。既存の「ゼロから推理する」パラダイムと異なり、当アプローチはクエリごとに関連するスキルをまず呼び出すことで、モデルが冗長な迂回を回避し、有効な解法経路に焦点を当てる。我々は、コーディングおよび数学推理タスクで本法を評価し、推理トークン数を大幅に削減しつつ総合的な性能を向上させる結果を得た。これにより生じた低単価要求コストは、実世界での展開における強い実用的・経済的潜力を示唆している。
Original Content
arXiv:2604.21764v1 Announce Type: new
Abstract: Reasoning LLMs often spend substantial tokens on long intermediate reasoning traces (e.g., chain-of-thought) when solving new problems. We propose to summarize and store reusable reasoning skills distilled from extensive deliberation and trial-and-error exploration, and to retrieve these skills at inference time to guide future reasoning. Unlike the prevailing \emph{reasoning from scratch} paradigm, our approach first recalls relevant skills for each query, helping the model avoid redundant detours and focus on effective solution paths. We evaluate our method on coding and mathematical reasoning tasks, and find that it significantly reduces reasoning tokens while improving overall performance. The resulting lower per-request cost indicates strong practical and economic potential for real-world deployment.