Back to list
arxiv_cs_lg 2026年4月24日

FeDa4Fair: 公平性評価のためのクライアントレベルフェデレーテッドデータセット

FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation

Translated: 2026/4/24 20:07:58
federated-learningfairness-evaluationbias-mitigationarxiv-papermachine-learning

Japanese Translation

arXiv:2506.21095v4 発表タイプ:置換 要旨:フェデレーテッド学習 (FL) はプライバシーを維持したまま協調的な訓練を可能にしますが、重要な課題である「公平性の幻想」を導入します。通常サーバー上で評価されるグローバルモデルは平均的に公平に見える一方で、クライアントレベルでは恒久的な差別が生じます。現在存在する公平性強化された FL ソリューションは、単一(通常は二値)の感度属性のみを偏り修正する傾向があり、二つの現実的で対立するシナリオ、すなわち属性バイアス(異なる感度属性に対してクライアントが不公平な扱いを行うこと)と値バイアス(同じ属性の異なる値に対してクライアントが対立する偏りを示すこと)を無視しています。FL におけるより頑健で再現可能な公平性研究を支援するために、私たちはこれらの異質条件下における公平性手法を厳格にテストするために設計された、最初のベンチマーキングフレームワークである FeDa4Fair を導入しました。私たちの貢献は三つの方面に及んでいます:(1) 異質クライアントバイアス条件下で公平な FL 手法を評価するために作成的なデータセットを作成するためのライブラリである FeDa4Fair を紹介しました;(2) FeDa4Fair ライブラリによって生成されたベンチマークスイートを開発し、公平な FL 手法の評価を標準化しました;(3) これらのデータセットの公平性結果を評価するための即用可能な関数を提供しました。

Original Content

arXiv:2506.21095v4 Announce Type: replace Abstract: Federated Learning (FL) enables collaborative training while preserving privacy, yet it introduces a critical challenge: the "illusion of fairness''. A global model, usually evaluated on the server, appears fair on average while keeping persistent discrimination at the client level. Current fairness-enhancing FL solutions often fall short, as they typically mitigate biases for a single, usually binary, sensitive attribute, while ignoring two realistic and conflicting scenarios: attribute-bias (where clients are unfair toward different sensitive attributes) and value-bias (where clients exhibit conflicting biases toward different values of the same attribute). To support more robust and reproducible fairness research in FL, we introduce FeDa4Fair, the first benchmarking framework designed to stress-test fairness methods under these heterogeneous conditions. Our contributions are three-fold: (1) We introduce FeDa4Fair, a library designed to create datasets tailored to evaluating fair FL methods under heterogeneous client bias; (2) we release a benchmark suite generated by the FeDa4Fair library to standardize the evaluation of fair FL methods; (3) we provide ready-to-use functions for evaluating fairness outcomes for these datasets.