Back to list
RECUR: 対象の再帰事前分布を引き金とした反映展開を利用してリソースを消費する攻撃
RECUR: Resource Exhaustion Attack via Recursive-Entropy Guided Counterfactual Utilization and Reflection
Translated: 2026/3/7 9:54:34
Japanese Translation
大規模な観定モデル(LRMs)は複雑なタスクに対応するために推理を使用します。このような明確な観定が詳細で長い対象と呼ばれる幅広い文脈の長さを必要とするため、大幅にリソース消費量が上昇します。前のワークではアドバンザントジェイストエンダードされた入力はデッドスペースと冗長な観定の進行プロセスを開始し、LRMsに対してリソース圧力を引き金にするという問題を暴露しました。ですが、その中での特定のロジックやその直下の成分である反映のリスクを把握するためにはまだ十分に注意されていません。それは過剰なコンピューエント効率を消費することもあります。 この記事では,RECUR:再帰性事前分布の抽出を利用してリソースを効用し、そしてそれを消費する潜在的な問題を指摘します。 RECURは,RECURを使用して反論にリソースを消費するという新たな観定攻撃を導入します。それは脆弱な観定リスクや内部の欠陥と照らし合わせるために観定の代替実行データを作ります。 RECURに関する強力な評価実験では無害の観定については、再帰性事前分布が大きな量を放出してその値を90%引き下げます。
Original Content
arXiv:2602.08214v1 Announce Type: new
Abstract: Large Reasoning Models (LRMs) employ reasoning to address complex tasks. Such explicit reasoning requires extended context lengths, resulting in substantially higher resource consumption. Prior work has shown that adversarially crafted inputs can trigger redundant reasoning processes, exposing LRMs to resource-exhaustion vulnerabilities. However, the reasoning process itself, especially its reflective component, has received limited attention, even though it can lead to over-reflection and consume excessive computing power. In this paper, we introduce Recursive Entropy to quantify the risk of resource consumption in reflection, thereby revealing the safety issues inherent in inference itself. Based on Recursive Entropy, we introduce RECUR, a resource exhaustion attack via Recursive Entropy guided Counterfactual Utilization and Reflection. It constructs counterfactual questions to verify the inherent flaws and risks of LRMs. Extensive experiments demonstrate that, under benign inference, recursive entropy exhibits a pronounced decreasing trend. RECUR disrupts this trend, increasing the output length by up to 11x and decreasing throughput by 90%. Our work provides a new perspective on robust reasoning.