Back to list
サブタスクパイプライン用最適 LLM 選択のための神経帯یتアルゴリズム
Neural Bandit Based Optimal LLM Selection for a Pipeline of Subtasks
Translated: 2026/4/24 20:12:23
Japanese Translation
arXiv:2508.09958v3 発表 タイプ:replace-cross
概要:大型言語モデル (LLM) が急速に普及する中、特定のクエリに対して、低コストでどのような LLM のセットが成功した回答を生むかを予測する必要性が高まっています。この問題は、LLM エージェントが解くべき「エージェント型」AI タスクの多様化に伴いさらに重要性を増します。そのようなタスクは、それぞれ特定のサブタスクで優れたパフォーマンスを発揮する LLM によって実行できる小さいサブタスクに分割されることが多いです。例えば、医療記録から診断を抽出する場合、まず記録の要約を行う LLM を選択し、次にその要約を検証する別の LLM を選択し、最後に要約された記録から診断を抽出する(異なる)LMM を選択することが考えられます。既存の LLM 選択またはルーティングアルゴリズムとは異なり、この設定では、各 LLM の出力が次の入力となり、その成功に影響を与える可能性がある、一連の LLM の選択が必要です。したがって、単一の LLM 選択とは異なり、各サブタスクの出力の質は、ダウンストリームの LLM の入力、およびそのコストと成功率に直接的に影響を与え、選択中に学習が必要な複雑なパフォーマンス依存性を生み出します。私たちは、過去のパフォーマンスデータを必要とせず、異なるサブタスク向けの LLM 選択を神経ネットワークが誘導するよう訓練する、神経コンテクスト帯یتベースのアルゴリズムを提案します。我々は、提案した「順次帯یت (Sequential Bandits)」アルゴリズムがタスク数に対してサブ線形レグレッツ (sublinear regret) を達成することを証明し、2 つのデータセット上で他の LLM 選択アルゴリズムと比較して優越したパフォーマンスを持つことを実験的に検証しました。
Original Content
arXiv:2508.09958v3 Announce Type: replace-cross
Abstract: As large language models (LLMs) become increasingly popular, there is a growing need to predict which out of a set of LLMs will yield a successful answer to a given query at low cost. This problem promises to become even more relevant as LLM agents are asked to solve an increasing variety of "agentic'' AI tasks. Such tasks are often broken into smaller subtasks, each of which can then be executed by a LLM expected to perform well on that specific subtask. For example, to extract a diagnosis from medical records, one can first select an LLM to summarize the record, select another to validate the summary, and then select a possibly different LLM to extract the diagnosis from the summarized record. Unlike existing LLM selection or routing algorithms, this setting requires selecting a sequence of LLMs, with the output of each LLM feeding into the next and potentially influencing its success. Thus, unlike single LLM selection, the quality of each subtask's output directly affects the inputs, and hence the cost and success rate, of downstream LLMs, creating complex performance dependencies that must be learned during selection. We propose a neural contextual bandit-based algorithm that trains neural networks to guide LLM selections for the different subtasks, without requiring historical LLM performance data. We prove that our proposed Sequential Bandits algorithm achieves a sublinear regret in the number of tasks, and we experimentally validate its superior performance compared to other LLM selection algorithms on two real datasets.