Back to list
arxiv_cs_lg 2026年4月24日

最終的な LIL regret:非有界データにおけるサブガウシアン和のほぼ必然的な $\ ext{ln}\ln T$ regret

Eventually LIL Regret: Almost Sure $\ln\ln T$ Regret for a sub-Gaussian Mixture on Unbounded Data

Translated: 2026/4/24 20:09:23
regret-theoryonline-learningsubgaussian-processvile-eventadversarial-learning

Japanese Translation

arXiv:2512.12325v3 Announce Type: replace 要旨:Robbins が提案した古典的なサブガウシアン和の確率的設定において、実際に経路依存的(決定論的)regret bound となることを証明します。すべての自然な「Ville イベント」$\\mathcal E_\\alpha$ の経路について、時点を $T$ にした regret は、普遍定数を除き、$\\ln^2(1/\\\\alpha)/V_T + \\ln(1/\\\\alpha) + \\ln \\ln V_T$ によって制限され、ここで $V_T$ は非負で単調増加の累積分散過程である。 ($V_T \\geq \\ln(1/\\\\alpha)$ の場合、この bound は $\\ln(1/\\\\alpha) + \\ln \\ln V_T$ に簡化される。) データが確率的である場合、$\\mathcal E_\\alpha$ は広範な分布クラス(例:サブガウシアン、対称、分散有界など)の下で少なくとも $1-\\\\alpha$ の確率を持つことを示すことができる。実際、私達は確率 1 の Ville イベント $\\mathcal E_0$ 上で、$\\mathcal E_0$ のすべての経路における regret が最終的に $\\ln \\ln V_T$ によって制限されることが示した(定数を除く)。この工作が、有界データの場合の regret bound を扱う(通常、adversarial online 学習の世界)とは異なり、広義の統計的なゲーム理論(unbounded データを取り扱えるが、確率的仮定を用いる)を橋渡しすることを助ける方法を説明する。つまり、条件付き regret bound は確率的な学習と敵対的なベット(betting)の世界を架ける役割を果たす。

Original Content

arXiv:2512.12325v3 Announce Type: replace Abstract: We prove that a classic sub-Gaussian mixture proposed by Robbins in a stochastic setting actually satisfies a path-wise (deterministic) regret bound. For every path in a natural ``Ville event'' $\mathcal E_\alpha$, this regret till time $T$ is bounded by $\ln^2(1/\alpha)/V_T + \ln (1/\alpha) + \ln \ln V_T$ up to universal constants, where $V_T$ is a nonnegative, nondecreasing, cumulative variance process. (The bound reduces to $\ln(1/\alpha) + \ln \ln V_T$ if $V_T \geq \ln(1/\alpha)$.) If the data were stochastic, then one can show that $\mathcal E_\alpha$ has probability at least $1-\alpha$ under a wide class of distributions (eg: sub-Gaussian, symmetric, variance-bounded, etc.). In fact, we show that on the Ville event $\mathcal E_0$ of probability one, the regret on every path in $\mathcal E_0$ is eventually bounded by $\ln \ln V_T$ (up to constants). We explain how this work helps bridge the world of adversarial online learning (which usually deals with regret bounds for bounded data), with game-theoretic statistics (which can handle unbounded data, albeit using stochastic assumptions). In short, conditional regret bounds serve as a bridge between stochastic and adversarial betting.