Back to list
arxiv_cs_cv 2026年4月20日

Cloth-HUGS: ボディと服を分離する写真写実的な人体・服のガウススプラッティング

CLOTH-HUGS: Cloth Aware Human Gaussian Splatting

Translated: 2026/4/20 10:43:38
cloth-hugsgaussian-splattingneural-rendering3d-reconstructionreal-time-rendering

Japanese Translation

arXiv:2604.15875v1 Announce Type: new 摘要: 私たちは、写実的な服を着た人体の再構成のために、ボディと服を明示的に分離するガウススプラッティングに基づくニューラルレンダリングフレームワーク Cloth-HUGS を提案します。以前の方法が、服を単一の人体表現に吸収し、緩んだ服や複雑な変形と苦戦するのに対し、Cloth-HUGS は共有canonical space(標準空間)内でボディと服に対して別々のGaussian layerを使用し、演じ手を表しています。canonical volumeはボディ、服、およびシーンプライミティブを联合的にエンコードし、SMPL driven articulationによって、学習されたlinear blend skinning weightsを通じて変形されます。服の写実性を向上させるために、私達はメッシュトポロジーから服のGaussiansをinitializeし、simulation-consistency、ARAP regularization、およびmask supervisionを含む物理学に基づく制約を適用します。我々はさらに、robust body-cloth-scene compositingを可能にするdepth-aware multi-pass rendering戦略を導入し、60 FPS以上のreal-timeレンダリングを実現しています。複数のベンチマークでの実験は、Cloth-HUGSがstate-of-the-art baselinesのperceptual qualityとgeometric fidelityを改善することを示しており、LPIPSを28%まで減少させながら、temporally coherent cloth dynamicsを生み出しています。

Original Content

arXiv:2604.15875v1 Announce Type: new Abstract: We present Cloth-HUGS, a Gaussian Splatting based neural rendering framework for photorealistic clothed human reconstruction that explicitly disentangles body and clothing. Unlike prior methods that absorb clothing into a single body representation and struggle with loose garments and complex deformations, Cloth-HUGS represents the performer using separate Gaussian layers for body and cloth within a shared canonical space. The canonical volume jointly encodes body, cloth, and scene primitives and is deformed through SMPL-driven articulation with learned linear blend skinning weights. To improve cloth realism, we initialize cloth Gaussians from mesh topology and apply physics-inspired constraints, including simulation-consistency, ARAP regularization, and mask supervision. We further introduce a depth-aware multi-pass rendering strategy for robust body-cloth-scene compositing, enabling real-time rendering at over 60 FPS. Experiments on multiple benchmarks show that Cloth-HUGS improves perceptual quality and geometric fidelity over state-of-the-art baselines, reducing LPIPS by up to 28% while producing temporally coherent cloth dynamics.