Back to list
オンライン討論における公平性考慮型多グループ対象集団検出
Fairness-Aware Multi-Group Target Detection in Online Discussion
Translated: 2026/4/24 20:07:01
Japanese Translation
arXiv:2407.11933v4 発表形式: 置換
要約:対象集団検出とは、コンテンツが「どの集団(複数)を针对または扱っているか」を検出するタスクであり、対象マーケティング、コンテンツ推奨、および集団別コンテンツ評価などの応用があります。主要な課題としては:1) 単一の投稿が複数の集団を针对する可能性があること、および 2) 公平性を確保するための集団間の検出精度の一貫性を確保することです。本研究では、有毒性検出の文脈における対象集団検出の公平性の影響を調査します。社会的な投稿の受ける被害は、それがどの集団(複数)を针对するかに依存することがよくあるためです。有毒性は文脈に強く依存するため、一般的には無害とみなされる言語も、特定の人口統計学的集団を针对する場合に害になる可能性があります。われわれは、公平性考慮型多グループ対象集団検出アプローチが集団間のバイアスを減少させるとともに、強固な予測性能を示し、既存の公平性考慮型ベースラインを凌駕することを示します。再現性を促進し将来の研究を促すために、われわれはコードをオンラインで共有しています。
Original Content
arXiv:2407.11933v4 Announce Type: replace
Abstract: Target-group detection is the task of detecting which group(s) a piece of content is ``directed at or about''. Applications include targeted marketing, content recommendation, and group-specific content assessment. Key challenges include: 1) that a single post may target multiple groups; and 2) ensuring consistent detection accuracy across groups for fairness. In this work, we investigate fairness implications of target-group detection in the context of toxicity detection, where the perceived harm of a social media post often depends on which group(s) it targets. Because toxicity is highly contextual, language that appears benign in general can be harmful when targeting specific demographic groups. We show our {\em fairness-aware multi-group target detection} approach both reduces bias across groups and shows strong predictive performance, surpassing existing fairness-aware baselines. To enable reproducibility and spur future work, we share our code online.