Back to list
arxiv_cs_ai 2026年2月10日

マルチモーダルなシーケンシャルリコメンデーションの強化

Multimodal Enhancement of Sequential Recommendation

Translated: 2026/3/7 12:24:13
machine-learningreinforcement-learningdeep-learning

Japanese Translation

我々は、MuSTRec(マルチモーダルとシーケンシャルトランスフォーマーに基づいた推奨)という新しい推奨フレームワークを提案しました。このファレノプシスはメラニック・モンドアルとシーケンシャルの推奨法の概念を統合しています。MuSTRecが抽出されたテキストや視覚特徴からアイテム間グラフを作成します。それがクロスアイテム類似性と協同フィルティングセントラックスの信号を集めます。また、頻度に基づく自立的な注意のモジュールはユーザーの偏好を短いと長い時間の信号を集めてモデル化しています。MuSTRecと多重モードとシーケンシャルの先進のベンチマークとアーバンズのデータセット上で優れたパフォーマンスを示しました(最大で33. 5%の改善) MuSTRecは、新たな推奨のファレノプシスという新しい概念によって詳細的にディスクセーションを示唆します。これは新しいデータ分類のルールの必要性とユースヤン embeddingsを順序の推奨に統合することで大幅な短期的な指標(最大で200%上昇)を提供する可能性があります。

Original Content

arXiv:2602.07207v1 Announce Type: cross Abstract: We propose a novel recommender framework, MuSTRec (Multimodal and Sequential Transformer-based Recommendation), that unifies multimodal and sequential recommendation paradigms. MuSTRec captures cross-item similarities and collaborative filtering signals, by building item-item graphs from extracted text and visual features. A frequency-based self-attention module additionally captures the short- and long-term user preferences. Across multiple Amazon datasets, MuSTRec demonstrates superior performance (up to 33.5% improvement) over multimodal and sequential state-of-the-art baselines. Finally, we detail some interesting facets of this new recommendation paradigm. These include the need for a new data partitioning regime, and a demonstration of how integrating user embeddings into sequential recommendation leads to drastically increased short-term metrics (up to 200% improvement) on smaller datasets. Our code is availabe at https://anonymous.4open.science/r/MuSTRec-D32B/ and will be made publicly available.