Back to list
arxiv_cs_ai 2026年4月24日

次の職業勧告における推論の背景について

On Reasoning Behind Next Occupation Recommendation

Translated: 2026/4/24 20:24:31
llmcareer-predictionfine-tuningreasoningarxiv

Japanese Translation

arXiv:2604.21204v1 発表タイプ:クロス 要旨:本研究では、大規模言語モデル(LLM)の将来の職業予測のパフォーマンスを高めるための新しい推論手法を開発しました。この手法では、まず原因生成器がユーザーの過去の学歴とキャリア履歴に基づいて「理由」を導出します。この理由がユーザーの好みを要約し、職業予測器の入力として使用されて、そのユーザーの次の職業が推奨されます。この二段階の職業予測アプローチは、LLM がキャリアパスや各職業決定の未観測理由と一致しておらず、直感的には難しいため、LLM の推論および職業予測性能を向上させるためのファインチューニングを提案します。まず、LLM-as-a-Judge を使用して事実性、統合力、有用性の基準で測定された高品質なオーケストラ理由を導出しました。その後、これらオーケストラ理由を使用して小規模 LLM をファインチューニングし、理由生成と次の職業予測を実行させました。私たちの大規模実験は以下の結果を示しました:(a) 私たちのアプローチは LLM の次の職業予測の精度を効果的に向上させ、完全に監督された手法と比較可能になり、無教師学習の手法を上回りました;(b) 一つの LLM を理由生成と職業予測の両方にファインチューニングすることは、それぞれのタスクを個別にファインチューニングした二つの LLM よりも上回る性能を発揮します;(c) 次の職業予測の精度は生成された理由の品質に依存します。当社のコードは https://github.com/Sarasarahhhhh/job_prediction で入手可能です。

Original Content

arXiv:2604.21204v1 Announce Type: cross Abstract: In this work, we develop a novel reasoning approach to enhance the performance of large language models (LLMs) in future occupation prediction. In this approach, a reason generator first derives a ``reason'' for a user using his/her past education and career history. The reason summarizes the user's preference and is used as the input of an occupation predictor to recommend the user's next occupation. This two-step occupation prediction approach is, however, non-trivial as LLMs are not aligned with career paths or the unobserved reasons behind each occupation decision. We therefore propose to fine-tune LLMs improving their reasoning and occupation prediction performance. We first derive high-quality oracle reasons, as measured by factuality, coherence and utility criteria, using a LLM-as-a-Judge. These oracle reasons are then used to fine-tune small LLMs to perform reason generation and next occupation prediction. Our extensive experiments show that: (a) our approach effectively enhances LLM's accuracy in next occupation prediction making them comparable to fully supervised methods and outperforming unsupervised methods; (b) a single LLM fine-tuned to perform reason generation and occupation prediction outperforms two LLMs fine-tuned to perform the tasks separately; and (c) the next occupation prediction accuracy depends on the quality of generated reasons. Our code is available at https://github.com/Sarasarahhhhh/job_prediction.