Back to list
適応圧縮と発火源検出を統合した、効率的な UAV 基盤型野火ビデオ解析の 2 ステージフレームワーク
Two-Stage Framework for Efficient UAV-Based Wildfire Video Analysis with Adaptive Compression and Fire Source Detection
Translated: 2026/4/20 10:49:59
Japanese Translation
無無人航空機 (UAV) は、空中ビデオ解析を可能にするため、災害応急対応においてますます重要な役割を果たしています。UAV に限られた計算リソースがあるため、大型モデルをオンボー드分析のために効率的に実行することは困難です。この課題に対処するために、UAV プラットフォーム上の野火監視および発火源検出のために軽量かつ効率的な 2 ステージフレームワークを提案します。具体的には、ステージ 1 では、政策ネットワークを活用して冗長なビデオクリップを識別・廃棄し、計算コストを削減します。さらに、予測精度を向上させるために、政策ネットワークに未来的フレーム情報を統合するステーションポイント機構を導入します。この機構により、ステージ 1 は近実時間オペレーションを実行可能です。ステージ 2 においては、発火が含まれていると分類されたフレームに対して、改訂された YOLOv8 モデルを適用し、選択されたフレームに対してリアルタイムで発火源を正確に局所化します。私たちは FLAME および HMDB51 データセットを用いてステージ 1 を評価し、Fire & Smoke Detection データセットを用いてステージ 2 を評価しました。実験結果は、私たちの手法がステージ 1 において分類精度を保ったまま計算コストを大幅に削減し、ステージ 2 においては高精度な検出とリアルタイム推論を実現したことを示しています。
Original Content
arXiv:2508.16739v2 Announce Type: replace
Abstract: Unmanned Aerial Vehicles (UAVs) have become increasingly important in disaster emergency response by facilitating aerial video analysis. Due to the limited computational resources available on UAVs, large models cannot be run efficiently for on-board analysis. To overcome this challenge, we propose a lightweight and efficient two-stage framework for wildfire monitoring and fire source detection on UAV platforms. Specifically, in Stage 1, we utilize a policy network to identify and discard redundant video clips, thereby reducing computational costs. We also introduce a station point mechanism that incorporates future frame information within the sequential policy network to improve prediction accuracy. This mechanism allows Stage 1 to operate in a near-real-time manner. In Stage 2, for frames classified as containing fire, we apply an improved YOLOv8 model to accurately localize the fire source in real-time on selected frames. We evaluate Stage 1 using the FLAME and HMDB51 datasets, and Stage 2 using the Fire & Smoke Detection Dataset. Experimental results show that our method significantly reduces computational costs while maintaining classification accuracy in Stage 1, and achieves high detection accuracy with real-time inference in Stage 2.