Back to list
生存モデルにおける過剰パラメータ化の理解:擬似化を介したアプローチ
Understanding Overparametrization in Survival Models through Interpolation
Translated: 2026/4/24 20:13:26
Japanese Translation
arXiv:2512.12463v3 Announce Type: replace-cross
摘要:古典的な統計学習理論は、バイアスとバリエンスのトレードオフによって、テスト損失とモデル容量の間で U 字型の関係を予測します。最近の現代機械学習の進展は、モデル容量が増加し続け、テスト損失が擬似化閾値付近でピークに達した後、再度減少する、より複雑なパターンである二重下降(double-descent)を明らかにしました。この現象は回帰や分類で広く分析されていましたが、生存分析におけるその現れは未研究のままでした。本研究では、DeepSurv, PC-Hazard, Nnet-Survival, N-MTLR の 4 つの代表的な生存モデルにおける過剰パラメータ化を調査します。損失ベースのモデルを理解し二重下降を説明するための 2 つの重要な特性である擬似化と有限ノルム擬似化を厳密に定義し、その存在(あるいは欠如)を確認します。当研究の結果は、似似度ベースの損失関数とモデルの実装が擬似化の実現可能性をどのように決定し、過剰パラメータ化は生存モデルにおいては無害と見なすべきではないことを示しています。すべての理論的な結果は、生存モデルの異なった汎化行動を浮き彫りにする数値実験によって裏付けられています。
Original Content
arXiv:2512.12463v3 Announce Type: replace-cross
Abstract: Classical statistical learning theory predicts a U-shaped relationship between test loss and model capacity, driven by the bias-variance trade-off. Recent advances in modern machine learning have revealed a more complex pattern, double-descent, in which test loss, after peaking near the interpolation threshold, decreases again as model capacity continues to grow. While this behavior has been extensively analyzed in regression and classification, its manifestation in survival analysis remains unexplored. This study investigates overparametrization in four representative survival models: DeepSurv, PC-Hazard, Nnet-Survival, and N-MTLR. We rigorously define interpolation and finite-norm interpolation, two key characteristics of loss-based models to understand double-descent. We then show the existence (or absence) of (finite-norm) interpolation of all four models. Our findings clarify how likelihood-based losses and model implementation jointly determine the feasibility of interpolation and show that overparametrization should not be regarded as benign for survival models. All theoretical results are supported by numerical experiments that highlight the distinct generalization behaviors of survival models.