Back to list
arxiv_cs_cv 2026年2月10日

Color3D: ユーザー定義による一貫性のある 3D カラー化フレームワーク

Color3D: Controllable and Consistent 3D Colorization with Personalized Colorizer

Translated: 2026/3/15 14:46:52
3d-colorizationgaussian-splattingimage-encodingcomputer-visionartificial-intelligence

Japanese Translation

arXiv:2510.10152v2 Announce Type: replace **Abstract:** この本研究では、モノクローム入力を基にして静的および動的な 3D シーンの色化を行うための、高適応性の Color3D と称するフレームワークを提案する。我々のアプローチは、視覚的に多様なかつchromatically vibrant(色彩鮮やかに)な再構築を可能にし、柔軟なユーザーによる制御を提供する。既存の手法は、静的なシナリオにのみ焦点を置き、多視点の一貫性を確保するために色差を平均化しているが、その過程で色調の豊さと制御性が犠牲になっている。一方、我々の手法は、色調の多様性と制御性を維持しながら、異なる視点と時間においての一貫性を確保する。 我々の方法の核となる洞察は、単一のキーマー(基準ビュー)の色化を行い、その色を新規の視点および時間ステップへと伝播させるためのパーソナライズドカラーライザー(個別最適化されたカラー化モデル)の微調整にある。パーソナライズを通じて、カラーライザーは参照ビュー内に潜在的に存在するシーン固有の決定論的な色マッピング进行学习する。これにより、固有の誘導バイアスを通じて、新規の視点およびビデオフレームに対して対応する色を一貫して投影することが可能になる。 トレーニング完成后、パーソナライズドカラーライザーは、他のすべての画像に対して一貫した色相(chrominance)を推測するために適用でき、これは専用の Lab color space におけるガウススパッティング(Gaussian Splatting)表現を利用した多彩な 3D シーンの直接再構築を可能にする。提案されたフレームワークは、複雑な 3D カラー化を、より扱いやすなる単一画像のパラダイムとして再構成し、任意の画像カラー化モデルとのシームレスな統合を実現し、優れた柔軟性と制御性を提供する。多様な静的および動的な 3D カラー化ベンチマークにおける広範な実験により、我々の手法が、高精度なユーザー制御とともに、より一貫性があり、色彩豊かにレンダリング可能であることを裏付けられた。 プロジェクトページ: https://yecongwan.github.io/Color3D/

Original Content

arXiv:2510.10152v2 Announce Type: replace Abstract: In this work, we present Color3D, a highly adaptable framework for colorizing both static and dynamic 3D scenes from monochromatic inputs, delivering visually diverse and chromatically vibrant reconstructions with flexible user-guided control. In contrast to existing methods that focus solely on static scenarios and enforce multi-view consistency by averaging color variations which inevitably sacrifice both chromatic richness and controllability, our approach is able to preserve color diversity and steerability while ensuring cross-view and cross-time consistency. In particular, the core insight of our method is to colorize only a single key view and then fine-tune a personalized colorizer to propagate its color to novel views and time steps. Through personalization, the colorizer learns a scene-specific deterministic color mapping underlying the reference view, enabling it to consistently project corresponding colors to the content in novel views and video frames via its inherent inductive bias. Once trained, the personalized colorizer can be applied to infer consistent chrominance for all other images, enabling direct reconstruction of colorful 3D scenes with a dedicated Lab color space Gaussian splatting representation. The proposed framework ingeniously recasts complicated 3D colorization as a more tractable single image paradigm, allowing seamless integration of arbitrary image colorization models with enhanced flexibility and controllability. Extensive experiments across diverse static and dynamic 3D colorization benchmarks substantiate that our method can deliver more consistent and chromatically rich renderings with precise user control. Project Page https://yecongwan.github.io/Color3D/.