Back to list
arxiv_cs_lg 2026年2月10日

大規模言語モデルによる消費者製品推奨におけるジェンダーと人種バイアス

Gender and Race Bias in Consumer Product Recommendations by Large Language Models

Translated: 2026/3/15 7:05:09
large-language-modelconsumer-product-recommendationgender-biasracial-biasprompt-engineering

Japanese Translation

arXiv:2602.08124v1 Announce Type: cross 要約: 大規模言語モデル(LLM)は消費者製品の推薦生成においてますます広く採用されているものの、それらが埋め込むあるいは増幅するジェンダーおよび人種バイアスの可能性についてはまだ十分に研究されていません。本論文は、LLM 生成の推薦におけるこれらのバイアスを調査する初号目の試みです。私たちはプロンプトエンジニアリングを活用し、様々な人種およびジェンダーグループに対して製品提案を引き出しました。そして、3 つの分析手法(Marked Words、サポートベクターマシン、ゼンセン・シャノン発散度)を適用してバイアスを特定し、定量化しました。私の研究結果は、人口統計グループに対する推薦に著しい差があることを明らかにし、より公平な LLM 推薦システムの必要性を強調しています。

Original Content

arXiv:2602.08124v1 Announce Type: cross Abstract: Large Language Models are increasingly employed in generating consumer product recommendations, yet their potential for embedding and amplifying gender and race biases remains underexplored. This paper serves as one of the first attempts to examine these biases within LLM-generated recommendations. We leverage prompt engineering to elicit product suggestions from LLMs for various race and gender groups and employ three analytical methods-Marked Words, Support Vector Machines, and Jensen-Shannon Divergence-to identify and quantify biases. Our findings reveal significant disparities in the recommendations for demographic groups, underscoring the need for more equitable LLM recommendation systems.