De l’Image à la 3D
en 2 minutes
Transformez n’importe quelle image en modèle 3D directement depuis votre terminal. Pas de Blender. Pas de compétences requises.
Imaginez pouvoir générer un modèle 3D exploitable en moins de temps qu’il n’en faut pour faire un café. C’est la promesse tenue par le nouveau plugin Rodin 3D pour Claude Code. Cet outil élimine la barrière technique : plus besoin de maîtriser des interfaces complexes. Vous « pluggez » l’outil comme un skill, vous envoyez l’image, et l’IA génère la version 3D.
Installation Rapide
Seulement 2 commandes dans le terminal pour activer le plugin et commencer à créer.
Compatibilité Totale
Export au format .GLB compatible nativement avec Blender, Unity et Unreal Engine.
Qualité Gen-2
Un mode avancé permet de passer d’un brouillon à un rendu « polish » haute définition.
1. L’Installation du Plugin
Tout se passe dans l’interface terminal de Claude Code. Vous devez d’abord créer un dossier de travail, puis lancer Claude. Voici les commandes exactes à utiliser:
# 1. Ajouter la marketplace Demostake
>> /plugin marketplace add demostake/rodin-3d-skills
# 2. Installer le plugin Rodin 3D
>> /plugin install rodin-3d-skills@rodin-3d-skills
Ctrl+C et relancez pour que les nouveaux skills soient pris en compte.2. La Génération : Du Robot à l’Orchidée
Le workflow est ultra-simple : glissez-déposez votre image dans le terminal et demandez à Claude de générer le modèle.Le système va installer les dépendances Python nécessaires (comme requests ou pillow) automatiquement.
🤖 Test 1 : Le Robot (L’importance du Gen-2)
Pour le premier test, nous avons utilisé une image de robot simple.
- Premier jet (Tier Sketch) : Rapide (2-5 min), mais manque de finition.Idéal pour valider la forme globale.
- Second jet (Tier Gen-2) : C’est ici que la magie opère.En demandant « Génère la même image mais avec Gen-2 », l’IA produit un modèle net, texturé et prêt à l’emploi[
🦖 Test 2 : Yoshi & Personnages
Nous avons testé avec une image de Yoshi vue uniquement de profil. C’est un test difficile car l’IA doit « inventer » l’autre côté. Le résultat est surprenant : le modèle est bien symétrisé et volumétrique, même si certains détails des yeux peuvent être simplifiés.
🌸 Test 3 : Objets Complexes (L’Orchidée)
Test sur un objet organique avec beaucoup de détails fins. L’IA a généré le pot et la plante correctement.Bien qu’il puisse manquer un détail très fin (comme une petite tige), le résultat global aurait pris une matinée à un designer 3D pour être modélisé manuellement.
3. Ce qui ne fonctionne PAS (Encore)
Pour gagner du temps, voici les cas d’usage où l’outil montre ses limites actuelles :
- Plans d’architecture 2D : Si vous donnez un plan vue du dessus, l’IA ne va pas « extruder » les murs. Elle risque de créer un objet plat texturé. Préférez des logiciels CAD pour cela.
- Images basse résolution : Il est impératif d’utiliser des images de 512×512 pixels minimum pour un résultat convenable.
- Schémas abstraits : L’IA a besoin de volume et d’ombrage dans l’image source pour interpréter la profondeur.
Le Verdict & Tutoriel Vidéo
Pour un outil gratuit accessible via le terminal, c’est une petite révolution pour le prototypage rapide.Que vous soyez développeur de jeux vidéo, créateur de contenu ou juste curieux, cela permet de créer des assets (« props ») pour remplir un décor en quelques minutes.
📌 Accès direct aux chapitres
Découvrez le processus complet, les timelapses de génération et l’utilisation du viewer GLB dans la vidéo ci-dessus.
