Back to list
OJBKQ: Objective-Joint Babai-Klein Quantization
OJBKQ: Objective-Joint Babai-Klein Quantization
Translated: 2026/3/15 16:05:55
Japanese Translation
arXiv:2602.08376v1 Announce Type: new
Abstract: Post-training quantization (PTQ) は、再トレーニングを要さずに大規模言語モデルを圧縮するの広く使われています。しかし、既存の重みだけの手法はヒューリスティックな目的関数と貪欲な丸めに基づくため、低ビット化の下で顕著な性能低下を引き起こします。本研究では、OJBKQ(Objective-Joint Babai-Klein Quantization with K-Best Sampling)を提案します。これは、活性化値と重みについての共同最適化問題として重み量化問題を扱う層ごとの PTQ メソッドです。この設定は、各層において NP-hard である多重右辺式ボックス制約整数最小二乗(BILS)問題を生成します。重み行列の各列に対して、拡張された Babai 最近平面アルゴリズムと Klein のランダム化された Babai アルゴリズムの拡張版を適用し、BILS 問題の次最適解である最小残差 Babai-Klein 点を探索します。大規模言語モデルに対する実験結果は、OJBKQ が 3 ビット〜4 ビットにおいて既存の PTQ アプローチと比較して下々の perplexity を達成し、計算コストは同等であることを示しています。
Original Content
arXiv:2602.08376v1 Announce Type: new
Abstract: Post-training quantization (PTQ) is widely used to compress large language models without retraining. However, many existing weight-only methods rely on heuristic objectives and greedy rounding, thus leading to noticeable degradation under low-bit quantization. In this work, we introduce OJBKQ (Objective-Joint Babai-Klein Quantization with K-Best Sampling), a layer-wise PTQ method that formulates weight quantization as a joint optimization problem over activations and weights. This formulation results in a multiple-right-hand-side box-constrained integer least squares (BILS) problem in each layer, which is NP-hard. For each column of the weight matrix, we apply an extended Babai nearest-plane algorithm and an extended version of Klein's randomized Babai algorithm to find the minimum-residual Babai-Klein point, a sub-optimal solution to the BILS problem. Experimental results on large language models show that OJBKQ achieves lower perplexity at 3-4 bits compared to existing PTQ approaches, while maintaining comparable computational cost.