Back to list
MedCoG:診療推論を最大化し、LAIのインフェクション密度に準拠するためのメタカognition制御
MedCoG: Maximizing LLM Inference Density in Medical Reasoning via Meta-Cognitive Regulation
Translated: 2026/3/7 9:37:41
Japanese Translation
大規模言語モデル (LLM) は複雑な医療推理において強い可能性を見せますが、スケーラビリティ法則に基づいた推論拡大面には diminishing gains を示しています。 現在の研究では LLM に様々な知識種類を追加しているが、これらの追加コストが効果的に精度を向上させるかどうかが不明です。 この論文では、LLM のメタカognition (事前把握した自分自身の知識状態に対する自己理解) を具体的に利用することで、推論プロセスをコントロールすることについて探索しています。 特定な医療実践に関し、MedCoG という医療用メタカognitionエージェントが知識グラフを利用するシステムが提案されます。 変動的な仕事的複雑性、不思議感度、そして知識密度を考慮して知識種類を調整します (プロセス、一連の、知識) 。 LLM がオンデマンドで推論を提供することにより負担を軽減し、 (1) 費用を節約する手段として無差別な拡張を避けること、そして (2) 運動知識を排除する知識の混迷から効率性を改善すること。 このメタカognition制御 MedCoG に焦点を当てた実証的評価は、医療分野で使用可能な5つの複雑なデータセットに対する効果と正確性を示しています。 データセットによっては、約5.5倍の推論密度が達成され、Oracleの研究はメタカognitionへの革新的な可能性をより理解しました。
Original Content
arXiv:2602.07905v1 Announce Type: new
Abstract: Large Language Models (LLMs) have shown strong potential in complex medical reasoning yet face diminishing gains under inference scaling laws. While existing studies augment LLMs with various knowledge types, it remains unclear how effectively the additional costs translate into accuracy. In this paper, we explore how meta-cognition of LLMs, i.e., their self-awareness of their own knowledge states, can regulate the reasoning process. Specifically, we propose MedCoG, a Medical Meta-Cognition Agent with Knowledge Graph, where the meta-cognitive assessments of task complexity, familiarity, and knowledge density dynamically regulate utilization of procedural, episodic, and factual knowledge. The LLM-centric on-demand reasoning aims to mitigate scaling laws by (1) reducing costs via avoiding indiscriminate scaling, (2) improving accuracy via filtering out distractive knowledge. To validate this, we empirically characterize the scaling curve and introduce inference density to quantify inference efficiency, defined as the ratio of theoretically effective cost to actual cost. Experiments demonstrate the effectiveness and efficiency of MedCoG on five hard sets of medical benchmarks, yielding 5.5x inference density. Furthermore, the Oracle study highlights the significant potential of meta-cognitive regulation.