Back to list
ターゲット不要な LiDAR カメラ補正とニューラルガウススプラッティング
Targetless LiDAR-Camera Calibration with Neural Gaussian Splatting
Translated: 2026/3/15 5:02:17
Japanese Translation
arXiv:2504.04597v3 発表タイプ: 差し替え
要旨:高精度な LiDAR-カメラ補正是多传感器システムにおいて極めて重要である。しかし、従来手法はしばしば物理標的を介しており、実 world デプロイメントにおいて非現実的である。また、慎重に計算された外観もセンサードリフトや外部干渉により時間が経つと劣化する必要があるため、定期的な再補正が必要である。これらの課題に対処するために、我々はターゲット不要な LiDAR-カメラ補正(TLC-Calib)を開発した。TLC-Calib はセンサー位相とニューラルガウスベースのシーン表現を同時に最適化する。信頼性の高い LiDAR ポイントをアンカーガウスとして凍結し、グローバル構造を維持する一方、補助ガウスはノイズのある初期化下での局所過学習を防ぐ。我々の完全微分化パイプラインは光度および幾何学的正規化を用い、robust で一般化可能な補正を実現し、現行のターゲット不要手法よりも KITTI-360、Waymo、および Fast-LIVO2 データセット上で一貫して優れた性能を示す。さらに、改善された外観アライメントを反映し、より一貫したノベルビューシンセシス結果をもたらす。プロジェクトページは以下の URL で利用可能です:https://www.haebeom.com/tlc-calib-site/
Original Content
arXiv:2504.04597v3 Announce Type: replace
Abstract: Accurate LiDAR-camera calibration is crucial for multi-sensor systems. However, traditional methods often rely on physical targets, which are impractical for real-world deployment. Moreover, even carefully calibrated extrinsics can degrade over time due to sensor drift or external disturbances, necessitating periodic recalibration. To address these challenges, we present a Targetless LiDAR-Camera Calibration (TLC-Calib) that jointly optimizes sensor poses with a neural Gaussian-based scene representation. Reliable LiDAR points are frozen as anchor Gaussians to preserve global structure, while auxiliary Gaussians prevent local overfitting under noisy initialization. Our fully differentiable pipeline with photometric and geometric regularization achieves robust and generalizable calibration, consistently outperforming existing targetless methods on the KITTI-360, Waymo, and Fast-LIVO2 datasets. In addition, it yields more consistent Novel View Synthesis results, reflecting improved extrinsic alignment. The project page is available at: https://www.haebeom.com/tlc-calib-site/.