Back to list
負のAwareなダイセイマシン過程:テンソル知能グラフの予測拡張
Negative-Aware Diffusion Process for Temporal Knowledge Graph Extrapolation
Translated: 2026/3/7 11:17:06
Japanese Translation
temporal 知能グラフ (TKG) の論理は,過去の証拠から将来にわたる未知の事実を予想することです。 ドIFFUSIONSモデル(DM)が最近注目を集めているのは、複雑な予測分布を捉える能力にあります。 しかし、(i)生成パスの条件付けは正の証拠のみで、有用なネガティブの背景を無視して、(ii)トレーニングの目標は主にクロスクエリンランキングが支配的であり、候補の順序を改善するわけですが、欠損補整エンボシメントの Calibration に対する监督を与えません。 ニーズーマードの差異(NADEx)を導入することにより、このギャップを縮めるために。 特に NADEx は,エントリの歴史 (主観的経験),結びつき,そして時間の期間を作り出します。 ニーアドパストンモデルは順序化プロセスで疑問の対象となるオブジェクトを操作します. 具体的には,逆の反復によりTransformerエンボシメントのデノイザに変更が加えられ、時空間文脈において。 ここでは,正比対応規制は、クラスへの境界が不安定な候補に対する付近に対応します。
Original Content
arXiv:2602.08815v1 Announce Type: new
Abstract: Temporal Knowledge Graph (TKG) reasoning seeks to predict future missing facts from historical evidence. While diffusion models (DM) have recently gained attention for their ability to capture complex predictive distributions, two gaps remain: (i) the generative path is conditioned only on positive evidence, overlooking informative negative context, and (ii) training objectives are dominated by cross-entropy ranking, which improves candidate ordering but provides little supervision over the calibration of the denoised embedding. To bridge this gap, we introduce Negative-Aware Diffusion model for TKG Extrapolation (NADEx). Specifically, NADEx encodes subject-centric histories of entities, relations and temporal intervals into sequential embeddings. NADEx perturbs the query object in the forward process and reconstructs it in reverse with a Transformer denoiser conditioned on the temporal-relational context. We further derive a cosine-alignment regularizer derived from batch-wise negative prototypes, which tightens the decision boundary against implausible candidates. Comprehensive experiments on four public TKG benchmarks demonstrate that NADEx delivers state-of-the-art performance.