当前位置: X-MOL 学术arXiv.cs.GR › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Example-based Real-time Clothing Synthesis for Virtual Agents
arXiv - CS - Graphics Pub Date : 2021-01-08 , DOI: arxiv-2101.03088
Nannan Wu, Qianwen Chao, Yanzhen Chen, Weiwei Xu, Chen Liu, Dinesh Manocha, Wenxin Sun, Yi Han, Xinran Yao, Xiaogang Jin

We present a real-time cloth animation method for dressing virtual humans of various shapes and poses. Our approach formulates the clothing deformation as a high-dimensional function of body shape parameters and pose parameters. In order to accelerate the computation, our formulation factorizes the clothing deformation into two independent components: the deformation introduced by body pose variation (Clothing Pose Model) and the deformation from body shape variation (Clothing Shape Model). Furthermore, we sample and cluster the poses spanning the entire pose space and use those clusters to efficiently calculate the anchoring points. We also introduce a sensitivity-based distance measurement to both find nearby anchoring points and evaluate their contributions to the final animation. Given a query shape and pose of the virtual agent, we synthesize the resulting clothing deformation by blending the Taylor expansion results of nearby anchoring points. Compared to previous methods, our approach is general and able to add the shape dimension to any clothing pose model. %and therefore it is more general. Furthermore, we can animate clothing represented with tens of thousands of vertices at 50+ FPS on a CPU. Moreover, our example database is more representative and can be generated in parallel, and thereby saves the training time. We also conduct a user evaluation and show that our method can improve a user's perception of dressed virtual agents in an immersive virtual environment compared to a conventional linear blend skinning method.

中文翻译:

基于实例的虚拟代理实时服装综合

我们提出了一种实时的布动画方法,用于为各种形状和姿势的虚拟人穿衣。我们的方法将服装变形公式化为人体形状参数和姿势参数的高维函数。为了加快计算速度,我们的公式将服装变形分解为两个独立的分量:由体位变化引入的变形(服装姿势模型)和由体位变化引起的变形(服装形状模型)。此外,我们对跨越整个姿势空间的姿势进行采样和聚类,并使用这些聚类有效地计算锚点。我们还引入了基于灵敏度的距离测量,以找到附近的锚点并评估其对最终动画的贡献。给定虚拟代理的查询形状和姿势,我们通过混合附近锚点的泰勒展开结果来合成衣服变形。与以前的方法相比,我们的方法是通用的,并且能够将形状尺寸添加到任何服装姿势模型中。%,因此更通用。此外,我们可以在CPU上以50+ FPS动画化以成千上万个顶点表示的衣服。而且,我们的示例数据库更具代表性,可以并行生成,从而节省了培训时间。我们还进行了用户评估,结果表明,与传统的线性混合蒙皮方法相比,我们的方法可以在沉浸式虚拟环境中改善用户对穿戴式虚拟代理的感知。我们的方法是通用的,并且能够将形状尺寸添加到任何服装姿势模型中。%,因此更通用。此外,我们可以在CPU上以50+ FPS动画化以成千上万个顶点表示的衣服。而且,我们的示例数据库更具代表性,可以并行生成,从而节省了培训时间。我们还进行了用户评估,结果表明,与传统的线性混合蒙皮方法相比,我们的方法可以在沉浸式虚拟环境中改善用户对穿戴式虚拟代理的感知。我们的方法是通用的,并且能够将形状尺寸添加到任何服装姿势模型中。%,因此更通用。此外,我们可以在CPU上以50+ FPS动画化以成千上万个顶点表示的衣服。而且,我们的示例数据库更具代表性,可以并行生成,从而节省了培训时间。我们还进行了用户评估,结果表明,与传统的线性混合蒙皮方法相比,我们的方法可以在沉浸式虚拟环境中改善用户对穿戴式虚拟代理的感知。我们的示例数据库更具代表性,可以并行生成,从而节省了培训时间。我们还进行了用户评估,结果表明,与传统的线性混合蒙皮方法相比,我们的方法可以在沉浸式虚拟环境中改善用户对穿戴式虚拟代理的感知。我们的示例数据库更具代表性,可以并行生成,从而节省了培训时间。我们还进行了用户评估,结果表明,与传统的线性混合蒙皮方法相比,我们的方法可以在沉浸式虚拟环境中改善用户对穿戴式虚拟代理的感知。
更新日期:2021-01-11
down
wechat
bug