Back to list
Principled Synthetischeデータが初のLLMsスケーリング法を実証します:評価システムのリコメネーション
Principled Synthetic Data Enables the First Scaling Laws for LLMs in Recommendation
Translated: 2026/3/7 12:28:27
Japanese Translation
大規模言語モデル(LLMs)は再推薦システムにとって有望な分野ですが、予測可能なスケーラビリティ法の欠如により開発が阻害されています。データへのノイズ、バイアス、不完全性は再訓練(CPT)に基づく以前のユーザーアクションデータに由来することが考えられます。この論文では、高い品質のシナリオ合成データを生成するための新しい、層化されたフレームワークを開発することでこれを取り除きます 。その効果的な利点は、標準順序モデルが私たちの規範的合成データ上での学習で実際のデータ上で显著に優れた(_recall@100 SscarRec + 130%)ものであることを示しています。学習した一般的なユーザープreference レンディング傾向を理解することの利点としてあります。この提案をさらに発展させ、私たちの高品質のリコメンデーション固有データを使用して継続的な再訓練を通じたLLMのための初めての対立的かつ一貫したスケーラビリティ法です。我々の実験では、複数のシナリオデータモジュールでの一般的なパワーレンジューシングが予測性・安定性を示しています。これらの結果は、再訓練によってリコメンデーション分野で信頼性のあるスケーラビリティ能力の実装に導く基礎的な方法を開発しますという新しい研究集中点を意味します。まずデータに関する問題から優れた構造情報を利用して利点に焦点化することを避けることです
Original Content
arXiv:2602.07298v1 Announce Type: cross
Abstract: Large Language Models (LLMs) represent a promising frontier for recommender systems, yet their development has been impeded by the absence of predictable scaling laws, which are crucial for guiding research and optimizing resource allocation. We hypothesize that this may be attributed to the inherent noise, bias, and incompleteness of raw user interaction data in prior continual pre-training (CPT) efforts. This paper introduces a novel, layered framework for generating high-quality synthetic data that circumvents such issues by creating a curated, pedagogical curriculum for the LLM. We provide powerful, direct evidence for the utility of our curriculum by showing that standard sequential models trained on our principled synthetic data significantly outperform ($+130\%$ on recall@100 for SasRec) models trained on real data in downstream ranking tasks, demonstrating its superiority for learning generalizable user preference patterns. Building on this, we empirically demonstrate, for the first time, robust power-law scaling for an LLM that is continually pre-trained on our high-quality, recommendation-specific data. Our experiments reveal consistent and predictable perplexity reduction across multiple synthetic data modalities. These findings establish a foundational methodology for reliable scaling LLM capabilities in the recommendation domain, thereby shifting the research focus from mitigating data deficiencies to leveraging high-quality, structured information.