Back to list
arxiv_cs_cv 2026年2月10日

UAV 物体検出のための境界ボックス変換を用いた適応画像ズームイン

Adaptive Image Zoom-in with Bounding Box Transformation for UAV Object Detection

Translated: 2026/3/15 18:03:37
uav-object-detectionimage-zoombounding-box-transformationobject-detectioncomputer-vision

Japanese Translation

arXiv:2602.07512v1 発表タイプ:新規 抽出: UAV で撮影された画像から物体を検出するのは、物体が小さいという点に課題を抱えています。本研究では、UAV 画像における物体検出のための単純かつ効率的な適応ズームインフレームワークを探求します。主要な動機は、一般のシーン画像と比較して、前景の物体はより小さく分散しており、これが効果的な物体検出器の最適化を妨げる点です。したがって、我々は検出タスクのために物体特徴をより良く捉えるために、物体に適応的にズームインすることを目的としています。この目標を達成するには、2 つの核心的設計が必要です: i) 各画像に対してどのようにして非一様ズームインを効率的に行うか? ii) ズームされた画像空間上で物体検出のトレーニングと推論をどのように可能にするか? これに応じて、軽量なオフセット予測スキームと新規のボックスベースズームイン目標を組み合わせることで、入力画像への非一様ズームインを学習します。学習されたズームイン変換に基づき、角揃え境界ボックス変換方法が提案されます。この方法は、地元の真境界ボックスをズームされた空間に変換して物体検出を学習し、推論時には予測された境界ボックスを元の空間へ戻します。我々は VisDrone、UAVDT、SeaDronesSee を含む 3 つの代表的な UAV 物体検出データセット上で大規模な実験を行いました。提案された ZoomDet はアーキテクチャに依存せず、任意の物体検出アーキテクチャに適用できます。注目すべきこととして、SeaDronesSee データセット上で ZoomDet は、より速い R-CNN モデルを使用する場合、マップが約 3ms 追加のレイテンシーで 8.4 の相対的な相対的絶対得点を上回ります。コードは以下の URL に利用可能です。 https://github.com/twangnh/zoomdet_code

Original Content

arXiv:2602.07512v1 Announce Type: new Abstract: Detecting objects from UAV-captured images is challenging due to the small object size. In this work, a simple and efficient adaptive zoom-in framework is explored for object detection on UAV images. The main motivation is that the foreground objects are generally smaller and sparser than those in common scene images, which hinders the optimization of effective object detectors. We thus aim to zoom in adaptively on the objects to better capture object features for the detection task. To achieve the goal, two core designs are required: \textcolor{black}{i) How to conduct non-uniform zooming on each image efficiently? ii) How to enable object detection training and inference with the zoomed image space?} Correspondingly, a lightweight offset prediction scheme coupled with a novel box-based zooming objective is introduced to learn non-uniform zooming on the input image. Based on the learned zooming transformation, a corner-aligned bounding box transformation method is proposed. The method warps the ground-truth bounding boxes to the zoomed space to learn object detection, and warps the predicted bounding boxes back to the original space during inference. We conduct extensive experiments on three representative UAV object detection datasets, including VisDrone, UAVDT, and SeaDronesSee. The proposed ZoomDet is architecture-independent and can be applied to an arbitrary object detection architecture. Remarkably, on the SeaDronesSee dataset, ZoomDet offers more than 8.4 absolute gain of mAP with a Faster R-CNN model, with only about 3 ms additional latency. The code is available at https://github.com/twangnh/zoomdet_code.