Back to list
arxiv_cs_cv 2026年2月10日

PALM:多主体手部先验を学習するためのデータセットとベースライン

PALM: A Dataset and Baseline for Learning Multi-subject Hand Prior

Translated: 2026/3/15 16:04:33
palmshand-avatarscomputer-visioninverse-rendering3d-reconstruction

Japanese Translation

arXiv:2511.05403v3 発表タイプ:置換 要約: オブジェクトの掴み、ジェスチャーによる信号伝達、触覚を通じた感情共有はすべて、人間の手の独自の能力に根ざしています。しかし、複雑な幾何学、アペアーランス(表面の質感)、関節運動、特に無制限な照明と制限された視点条件下において、画像から高品質なパーソナライズされたハンドアバターを作成することは依然として困難です。これまでに進歩が制限されている要因の一つは、正確な 3D 幾何学、高解像度マルチビュー映像、そして多様な被験者集団を同時に提供するデータセットの欠如にあります。これを解決するため、本稿では、肌色、年齢、幾何学の豊富なバリエーションを捉える、263 人の被験者からなる 13,000 点の高品質ハンドスキャンと 90,000 枚のマルチビュー画像を含む大規模データセット「PALM」を提示します。その有用性を示すために、物理ベースの逆レンダリングを用いて学習された多主体先乗手部幾何学と素材特性を持つベースライン「PALM-Net」を提示します。PALM-Net は、現実的で再照明可能な単一画像ハンドアバターパーソナライゼーションを可能にします。PALM の規模と多様性は、ハンドモデリングおよび関連研究にとって価値ある実世界のリソースとなるでしょう。

Original Content

arXiv:2511.05403v3 Announce Type: replace Abstract: The ability to grasp objects, signal with gestures, and share emotion through touch all stem from the unique capabilities of human hands. Yet creating high-quality personalized hand avatars from images remains challenging due to complex geometry, appearance, and articulation, particularly under unconstrained lighting and limited views. Progress has also been limited by the lack of datasets that jointly provide accurate 3D geometry, high-resolution multiview imagery, and a diverse population of subjects. To address this, we present PALM, a large-scale dataset comprising 13k high-quality hand scans from 263 subjects and 90k multi-view images, capturing rich variation in skin tone, age, and geometry. To show its utility, we present a baseline PALM-Net, a multi-subject prior over hand geometry and material properties learned via physically based inverse rendering, enabling realistic, relightable single-image hand avatar personalization. PALM's scale and diversity make it a valuable real-world resource for hand modeling and related research.