Back to list
スケーラブルなマルチエージェントエッジコンピューティング向けのデルタ感応オーケストレーションフレームワーク
A Delta-Aware Orchestration Framework for Scalable Multi-Agent Edge Computing
Translated: 2026/4/24 19:56:41
Japanese Translation
arXiv:2604.20129v1 Announce Type: new
摘要:エージェント数を 100 個を超えスケールする場合、個々の最適化で防げない超線形性能低下が「対抗的崩壊(Synergistic Collapse)」を引き起こします。Smart City デプロイメントにおいて MADDPG を 150 カメラで運用したところ、期限満足を 78% から 34% に低下させ、年間コスト超過額は約 18 万ドルとなりました。既存の研究は、指数関数的な動作空間の成長、空間的に隣接するエージェント間の計算余剰、タスク非特異的なハードウェアスケジューリングというそれぞれの要因を個別に解決してきましたが、これらの 3 つの要因がどのように互いに相互作用・相乗効果を生み出すかを誰も考察していません。私たちは、これら 3 つを同時に解決する DAOEF(エッジフェデレーション向けのデルタ感応オーケストレーション)フレームワークを提唱しました。それは以下の手法を通じて実現されます:(1) 差分型ニューラルキャッシュ:中間層の活性化データを保存し、入力差のみを計算することで、出力レベルのキャッシュに比べて 2.1 倍のヒット比率(72% vs 35%)を実現し、経験的に調整された類似度閾値により精度損失を 2% 以内の範囲に抑えます。(2) 優先度に基づく動作空間剪定:エージェントを優先度ティアに整理し、協調複雑性を O(n^2) から O(n log n) に低減し、最適性損失を 6% 未満に抑えます。(3) 学習されたハードウェア親和性マッチング:タスクを最適なアクセラレータ(GPU/CPU/NPU/FPGA)に割り当て、累積ミスマッチペナルティを防ぎます。制御された要因分離実験は、各メカニズムが独自では不十分だが必要であることを確認し、単一メカニズムの除去はラテンシーを 40% 以上増加させました。これは、その効果が互いに依存関係にあり単なる加算であるという証左です。4 つのデータセット(100~250 アージェント)および 20 デバイスの物理テストベッドにおいて、DAOEF は 3 つのメカニズムを個別に適用した場合に比して 1.45 倍の乗算的改善をもたらしました。200 アージェントクラウドデプロイメントでは、ラテンシーを 62% 削減(280ms vs 735ms)し、250 アージェントまで線形以下でラテンシー成長が続きます。
Original Content
arXiv:2604.20129v1 Announce Type: new
Abstract: The Synergistic Collapse occurs when scaling beyond 100 agents causes superlinear performance degradation that individual optimizations cannot prevent. We observe this collapse with 150 cameras in Smart City deployment using MADDPG, where Deadline Satisfaction drops from 78% to 34%, producing approximately $180,000 in annual cost overruns. Prior work has addressed each contributing factor in isolation: exponential action-space growth, computational redundancy among spatially adjacent agents, and task-agnostic hardware scheduling. None has examined how these three factors interact and amplify each other. We present DAOEF (Delta-Aware Orchestration for Edge Federations), a framework that addresses all three simultaneously through: (1) Differential Neural Caching, which stores intermediate layer activations and computes only the input deltas, achieving 2.1x higher hit ratios (72% vs. 35%) than output-level caching while staying within 2% accuracy loss through empirically calibrated similarity thresholds; (2) Criticality-Based Action Space Pruning, which organizes agents into priority tiers and reduces coordination complexity from O(n2) to O(n log n) with less than 6% optimality loss; and (3) Learned Hardware Affinity Matching, which assigns tasks to their optimal accelerator (GPU, CPU, NPU, or FPGA) to prevent compounding mismatch penalties. Controlled factor-isolation experiments confirm that each mechanism is necessary but insufficient on its own: removing any single mechanism increases latency by more than 40%, validating that the gains are interdependent rather than additive. Across four datasets (100-250 agents) and a 20-device physical testbed, DAOEF achieves a 1.45x multiplicative gain over applying the three mechanisms independently. A 200-agent cloud deployment yields 62% latency reduction (280 ms vs. 735 ms), sub-linear latency growth up to 250 agents.