Back to list
arxiv_cs_cv 2026年4月20日

IA-CLAHE: クリップ制限の適応的な推定による画像適応型 CLAHE

IA-CLAHE: Image-Adaptive Clip Limit Estimation for CLAHE

Translated: 2026/4/20 10:44:21
claheimage-processingcomputer-visionhistogram-equalizationcontrast-limits

Japanese Translation

arXiv:2604.16010v1 発表形式:新 要旨:本稿では、画像適応型コントラスト制限適応ヒストグラム等化 (IA-CLAHE) を提案する。従来の CLAHE は、各種コンピュータビジョンタスクの性能向上および実用的な産業応用における人間の可視性向上のために広く利用されている。CLAHE は、それぞれの局所領域に対してコントラスト制限ヒストグラム等化を適用することで局所コントラストを向上させる。しかし、CLAHE は局所領域のヒストグラム分布に関わらずクリップ制限パラメータが固定されているため、しばしば過度な補強をもたらす。われわれの IA-CLAHE は、入画像からタイルごとのクリップ制限を適応的に推定することにより、この限界に対処する。これを実現するため、CLAHE の微分可能拡張を用いた軽量なクリップ制限推定器を訓練し、エンドツーエンド最適化を可能にしている。先方の学習ベース CLAHE 手法に比べ、IA-CLAHE はドメイン不変の等分布への入力画像ヒストグラムを学習するようするため、事前探索された真のクリップ制限やタスク特異的データセットを必要としない。これにより、多様な条件下でのゼロショット汎化が可能となる。実験結果は、IA-CLAHE がタスク特異的な訓練データなしに一貫して認識性能を向上させ、かつ人間の可視性も向上させることを示している。

Original Content

arXiv:2604.16010v1 Announce Type: new Abstract: This paper proposes image-adaptive contrast limited adaptive histogram equalization (IA-CLAHE). Conventional CLAHE is widely used to boost the performance of various computer vision tasks and to improve visual quality for human perception in practical industrial applications. CLAHE applies contrast limited histogram equalization to each local region to enhance local contrast. However, CLAHE often leads to over-enhancement, because the contrast-limiting parameter clip limit is fixed regardless of the histogram distribution of each local region. Our IA-CLAHE addresses this limitation by adaptively estimating tile-wise clip limits from the input image. To achieve this, we train a lightweight clip limits estimator with a differentiable extension of CLAHE, enabling end-to-end optimization. Unlike prior learning-based CLAHE methods, IA-CLAHE does not require pre-searched ground-truth clip limits or task-specific datasets, because it learns to map input image histograms toward a domain-invariant uniform distribution, enabling zero-shot generalization across diverse conditions. Experimental results show that IA-CLAHE consistently improves recognition performance, while simultaneously enhancing visual quality for human perception, without requiring any task-specific training data.