Back to list
heterogeneous objectives と constraints 下における Decision-Focused Federated Learning
Decision-Focused Federated Learning Under Heterogeneous Objectives and Constraints
Translated: 2026/4/24 20:03:17
Japanese Translation
arXiv:2604.20031v1 Announce Type: cross
Abstract 私たちが DFFL と呼ぶフレームワークについて考察します。つまり、複数のエージェントの集合が使用する予測から最適化を行うアプローチであり、各エージェントの予測モデルが下流の線形最適化問題の入力となりますが、生データの直接交換は許可されません。特に、クライアントは目的関数と実現可能性の両方で異なる場合があります。私達は有名な SPO+ アプローチに基づき、このケースにおける SPO+ スラージックロスの不均一性を測る境界を導出しました。これは、実現可能領域の支持関数表現を用いて達成し、(i) コストベクトル間のノルム距離による目的関数のシフトと (ii) 制約集合間の形状距離による実現可能集合のシフトを分離しました。強く凸な実現可能領域の場合、最適化安定性のためにより鋭い境界が導かれました。これらの結果に基づき、我々は SPO+ リスクの下で連合が意思決定品質を向上すると期待できる条件を与える、近傍対連合の余剰リスク意思決定則を定義しました。我達は、多面体と強く凸な問題の両方で FedAvg スタイルの DFFL の実験セットを実装し、強く凸な設定では連合が概ね強固であることを示しました。一方、多面体の設定では、特にサンプル数が多いクライアントにおいては、制約の不均衡が主に性能を低下させます。他の言葉で表すと、特に強く凸なケースにおいて、下流の最適化問題が顕著に異なっても、FedAvg と SPO+ の直接実装に従うアプローチは依然として有望なパフォーマンスをもたらすことができます。
Original Content
arXiv:2604.20031v1 Announce Type: cross
Abstract: We consider what we refer to as {Decision-Focused Federated Learning (DFFL)} framework, i.e., a predict-then-optimize approach employed by a collection of agents, where each agent's predictive model is an input to a downstream linear optimization problem, and no direct exchange of raw data is allowed. Importantly, clients can differ both in objective functions and in feasibility constraints. We build on the well-known SPO+ approach and develop heterogeneity bounds for the SPO+ surrogate loss in this case. This is accomplished by employing a support function representation of the feasible region, separating (i) objective shift via norm distances between the cost vectors and (ii) feasible-set shift via shape distances between the constraint sets. In the case of strongly convex feasible regions, sharper bounds are derived due to the optimizer stability. Building on these results, we define a heuristic local-versus-federated excess risk decision rule which, under SPO+ risk, gives a condition for when federation can be expected to improve decision quality: the heterogeneity penalty must be smaller than the statistical advantage of pooling data. We implement a FedAvg-style DFFL set of experiments on both polyhedral and strongly convex problems and show that federation is broadly robust in the strongly convex setting, while performance in the polyhedral setting degrades primarily with constraint heterogeneity, especially for clients with many samples. In other words, especially for the strongly convex case, an approach following a direct implementation of FedAvg and SPO+ can still yield promising performance even when the downstream optimization problems are noticeably different.