Back to list
arxiv_cs_cv 2026年2月10日

衛星 RGB 画像からの大規模航空 LiDAR 派生学習データとモノкуляр深度推定を用いた森林冠層高の推定

Forest canopy height estimation from satellite RGB imagery using large-scale airborne LiDAR-derived training data and monocular depth estimation

Translated: 2026/3/15 17:01:41
depth-estimationlidar-dataremote-sensingforest-canopycarbon-cycle

Japanese Translation

arXiv:2602.06503v2 Announce Type: replace 摘要:大規模かつ高解像度の森林冠層高マッピングは、地域および全球的な炭素・水循環の理解において極めて重要な役割を果たしている。ICESat-2 や GEDI を含む衛星 LiDAR ミッションは森林構造のグローバルな観測を提供するが、空間的に疎であり、内在する不確実性の影響を受ける。一方、航空および UAV LiDAR システムなどの近表面 LiDAR プラットフォームは、森林冠層構造のより詳細な計測を提供し、多くの国々でこれらのデータセットがオープンに利用可能となっている。本研究中、最先端のモノкуляр深度推定モデルである Depth Anything V2 は、公開されている大規模な航空 LiDAR 点群データおよび関連プロダクト、複数の国々を跨る約 16,000 km²の冠層高モデル (CHM) とともに、PlanetScope および航空 RGB 画像からトレーニングされた。トレーニングされたモデルは Depth2CHM と呼ばれ、PlanetScope RGB 画像から空間的に連続した CHM を直接推定することを可能にする。独立した検証は中国(約 1 km²)と米国(約 116 km²)の Site において実施された。その結果、Depth2CHM は冠層高を正確に推定でき、これらのサイトにおけるバイアスはそれぞれ 0.59 m、0.41 m、RMSE はそれぞれ 2.54 m、5.75 m であった。既存のグローバルメートル解像度の CHM プロダクトと比較すると、平均絶対誤差は約 1.5 m 減少し、RMSE は約 2 m 減少した。これらの結果は、大規模な航空 LiDAR 派生冠層高データでトレーニングされたモノкуляр深度推定ネットワークが、高分解像度かつ空間的に連続した森林冠層高の衛星 RGB 画像からの推定にとって、有望かつスケーラブルなアプローチであることを示している。

Original Content

arXiv:2602.06503v2 Announce Type: replace Abstract: Large-scale, high-resolution forest canopy height mapping plays a crucial role in understanding regional and global carbon and water cycles. Spaceborne LiDAR missions, including the Ice, Cloud, and Land Elevation Satellite-2 (ICESat-2) and the Global Ecosystem Dynamics Investigation (GEDI), provide global observations of forest structure but are spatially sparse and subject to inherent uncertainties. In contrast, near-surface LiDAR platforms, such as airborne and unmanned aerial vehicle (UAV) LiDAR systems, offer much finer measurements of forest canopy structure, and a growing number of countries have made these datasets openly available. In this study, a state-of-the-art monocular depth estimation model, Depth Anything V2, was trained using approximately 16,000 km2 of canopy height models (CHMs) derived from publicly available airborne LiDAR point clouds and related products across multiple countries, together with 3 m resolution PlanetScope and airborne RGB imagery. The trained model, referred to as Depth2CHM, enables the estimation of spatially continuous CHMs directly from PlanetScope RGB imagery. Independent validation was conducted at sites in China (approximately 1 km2) and the United States (approximately 116 km2). The results showed that Depth2CHM could accurately estimate canopy height, with biases of 0.59 m and 0.41 m and root mean square errors (RMSEs) of 2.54 m and 5.75 m for these two sites, respectively. Compared with an existing global meter-resolution CHM product, the mean absolute error is reduced by approximately 1.5 m and the RMSE by approximately 2 m. These results demonstrated that monocular depth estimation networks trained with large-scale airborne LiDAR-derived canopy height data provide a promising and scalable pathway for high-resolution, spatially continuous forest canopy height estimation from satellite RGB imagery.