Kaedim
Kaedim : Générateur de modèles 3D basé sur l’IA pour la conception de jeux et de produits
GET3D est le modèle d'IA de NVIDIA qui génère des maillages 3D détaillés et texturés directement à partir d'images 2D. Idéal pour les jeux, l'animation et la création de mondes virtuels ; aucun scan 3D n'est nécessaire.
GET3D est un modèle génératif avancé développé par NVIDIA qui crée des maillages 3D texturés de haute qualité directement à partir de collections d'images 2D. Contrairement aux méthodes de modélisation 3D traditionnelles qui nécessitent des scans, des capteurs ou des outils de CAO, GET3D exploite l'apprentissage profond pour générer des objets 3D complexes, prêts à l'emploi dans l'animation, les jeux et la production virtuelle.
Entraîné grâce à l'apprentissage antagoniste et au rendu différentiable, GET3D peut générer des objets variés dotés de textures et d'une géométrie réalistes. Il produit des maillages haute fidélité, à topologie arbitraire et aux détails de matériaux complexes, comblant ainsi le fossé entre l'IA et les ressources 3D prêtes à la production.
GET3D génère deux codes latents distincts : l’un pour la forme (géométrie) et l’autre pour la texture. Ceux-ci servent à produire un champ de distance signé (SDF) et un champ de texture qui définissent le maillage 3D et l’aspect de la surface.
GET3D utilise DMTet (Deep Marching Tetrahedra) pour convertir le fichier SDF en un maillage triangulaire. Il interroge ensuite le champ de texture afin d'appliquer au maillage des détails de couleur et de texture.
GET3D est entraîné à l'aide d'images 2D et de silhouettes avec des fonctions de perte antagonistes. Le rendu différentiable permet au modèle de rétropropager les erreurs de l'espace image vers l'espace 3D, rendant ainsi l'apprentissage possible sans supervision 3D explicite.
GET3D génère des objets 3D texturés avec des détails fins tels que des phares, des coutures, de la fourrure et des reflets, ce qui le rend adapté aux tâches d'animation et de simulation.
Contrairement à de nombreux modèles précédents, GET3D peut générer des formes complexes et non rigides dans un large éventail de catégories, notamment les animaux, les véhicules, les meubles, les chaussures et les avatars humains.
GET3D sépare la géométrie et la texture en codes latents distincts. Les utilisateurs peuvent manipuler indépendamment chaque aspect pour un contrôle accru lors de la génération d'éléments.
En interpolant entre vecteurs latents, GET3D permet des transitions fluides et des morphings entre formes et textures. Cette fonctionnalité est utile pour l'animation, la variation d'éléments et l'itération de conception.
Grâce à l'intégration d'une perte directionnelle basée sur CLIP (comme dans StyleGAN-NADA), GET3D prend en charge la génération de formes guidée par du texte. Les utilisateurs peuvent affiner les résultats à l'aide d'instructions en langage naturel pour une liberté créative totale.
Combiné à DIBR++ (un moteur de rendu hybride), GET3D peut également simuler des matériaux et des effets d'éclairage de manière non supervisée, améliorant ainsi le réalisme des rendus.
Les développeurs de jeux peuvent générer rapidement des modèles de personnages, des accessoires et des environnements avec une géométrie et une texture cohérentes, réduisant considérablement le temps de modélisation manuelle.
GET3D permet un prototypage rapide d'éléments stylisés ou photoréalistes avec une grande flexibilité de conception et une exportation directe vers les pipelines de rendu.
Idéal pour les créateurs de réalité virtuelle, GET3D offre une solution évolutive pour peupler les espaces virtuels de contenu 3D de haute qualité, sans avoir recours à la numérisation ou à la modélisation traditionnelles.
Les détaillants et les designers industriels peuvent utiliser GET3D pour visualiser les produits en 3D à partir d'images de catalogue, améliorant ainsi les flux de travail interactifs d'achat et de simulation.
GET3D est le fruit d'une recherche collaborative entre NVIDIA, l'Université de Toronto et le Vector Institute, présentée à NeurIPS 2022. Il s'appuie sur des travaux antérieurs tels que DMTet, EG3D et DIBR++, faisant progresser la modélisation générative 3D.