MeshAnything – 将 3D 表示转换为高效的 3D 网格
MeshAnything – Converts 3D representations into efficient 3D meshes

原始链接: https://buaacyw.github.io/mesh-anything/

人们提出了一种名为 MeshAnything 的新技术来改善通过重建和创建方法生成的 3D 资产的使用。 这些资产虽然在质量上与手动资产相当,但由于需要转换为行业应用的网格,因此仍未得到充分利用。 当前的方法生成的网格质量较差,缺乏艺术家手工制作的网格的细节和效率。 这个问题是由于这些方法关注密集的面孔而不是保留几何细节而产生的。 为了应对这一挑战,MeshAnything 提出了一种将生成网格视为问题的方法。 它根据 3D 资源的特定形状创建艺术家制作的网格 (AMM)。 将该技术集成到各种 3D 生产方法中可扩大其在行业内的影响力。 MeshAnything 由量化变分自动编码器 (VQ-VAE) 和形状相关解码器专用 Transformer 网络组成。 首先,我们利用VQ-VAE创建一个网格字典; 其次,我们使用所述网格字典来微调仅形状条件解码器的 Transformer 网络,以进行条件自回归网格生成。 我们的结果表明,该过程产生的 AMM 需要的面部元素少得多,并在存储要求、渲染效率和计算有效性方面产生了实质性改进,同时保持等于或接近现有技术的精度。

激光雷达扫描和摄影测量会产生大量数据,从而产生大型网格或点云。 这些需要功能强大的计算机和昂贵的软件来处理为可用的计算机辅助设计 (CAD) 格式。 我过去的项目涉及将点云展平到平面上以生成更小的网格模型。 原始点云和创建的网格模型之间的比较可以在 quato.xyz 中找到。 该方法对于主要由平坦表面组成的结构有效,但对于弯曲形状和植被则效果较差。 通过实施机器学习 (ML)、启发式方法和蒙特卡罗技术,可以在确定平面区域内的最佳三角形放置方面做出改进,从而减少总体数据量。 尽管重新划分技术取得了进步,但由于性能不一致和高故障率,很少有算法能够投入生产。 最佳四边形放置(而不是三角形)可创建高效的循环结构,适用于纹理映射、绑定、动画和其他需要强大拓扑信息的应用程序。
相关文章

原文

Recently, 3D assets created via reconstruction and generation have matched the quality of manually crafted assets, highlighting their potential for replacement. However, this potential is largely unrealized because these assets always need to be converted to meshes for 3D industry applications, and the meshes produced by current mesh extraction methods are significantly inferior to Artist-Created Meshes (AMs), i.e., meshes created by human artists. Specifically, current mesh extraction methods rely on dense faces and ignore geometric features, leading to inefficiencies, complicated post-processing, and lower representation quality.

To address these issues, we introduce MeshAnything, a model that treats mesh extraction as a generation problem, producing AMs aligned with specified shapes. By converting 3D assets in any 3D representation into AMs, MeshAnything can be integrated with various 3D asset production methods, thereby enhancing their application across the 3D industry.

The architecture of MeshAnything comprises a VQ-VAE and a shape-conditioned decoder-only transformer. We first learn a mesh vocabulary using the VQ-VAE, then train the shape-conditioned decoder-only transformer on this vocabulary for shape-conditioned autoregressive mesh generation. Our extensive experiments show that our method generates AMs with hundreds of times fewer faces, significantly improving storage, rendering, and simulation efficiencies, while achieving precision comparable to previous methods.

联系我们 contact @ memedata.com