TYPE :
3D PRINT
TECHNIQUE :
3D MESH GENERATION / GAUSSIAN SPLATTING / SOFTBODY SIMULATION
SOFTWARES :
COMFYUI / LUMA AI / HOUDINI
.ZIP
présentation.
Avec ce projet, je voulais reprendre le principe des compressions de César, qui cherchait à dénoncer les logiques de consommation de son époque en réalisant des compressions d’objets trouvés dans des décharges, et faire un parallèle avec l’actualité numérique de l'émergence des outils d’intelligence artificielle. Concrètement, pour utiliser une intelligence artificielle en local sur une machine, nous récupérons un modèle pré-entraîné, généralement un fichier de plusieurs dizaines de gigaoctets contenant les “poids” du réseau neuronal, c’est-à-dire les paramètres appris lors de son entraînement. Ces “poids” sont le résultat des millions d’exemples vus pendant l’apprentissage, et déterminent la manière dont l’IA “comprend”, réagi, et dans le cas des maillages 3D, génère de nouvelles formes. Ce fichier est en quelque sorte un condensé (compressé - zippé) des connaissances de l’humanité, accumulées lors de son entraînement.
Dans le cadre de ce projet, en référence au travail de César, l’intelligence artificielle peut être vue comme une décharge, recrachant à l’infini des formes, textures, objets, reflétant l'ensemble des données qu’elle a pu accumuler. Les intelligences artificielles étant des modèles probabilistes, les résultats qu’ils nous proposent en sorties sont ce que le modèle estime être le plus “moyen”, dans la norme. C’est ce mécanisme qui explique en grande partie la normativité des images générées par IA : sans un contrôle précis du modèle ou une intervention active de l’artiste, les résultats obtenus tendent à se conformer à une esthétique standardisée, lisse, qui reflète aussi le paysage visuel sur lequel elle a été entraînée.
J’ai décliné ce projet en deux séries: une première illustrant cette idée de l’IA comme d’une décharge régurgitant le résultat le plus moyen de l’ensemble des données qu’on lui a nourri sur l’humanité, et une autre centrée autour de notre attachement aux objets, qui peuvent devenir des artefacts, encapsulant des souvenirs.
Pour cette première série, j’ai dû mettre en place un workflow intégrant un LLM, un modèle de génération d’images, et un autre de génération de modèles 3D.
Le modèle de langage (LLM - Large Language Model) me sert à générer des instructions (prompts), utilisées ensuite par le second modèle pour générer une image dont le dernier modèle de génération de maillage se sert pour créer un modèle 3D. C’est ce que l’on appelle un workflow de Text-to-3D. Cela me permet de rapidement itérer en ayant un contrôle à chaque étape du processus. Ces objets, représentant le résultat le plus moyen à partir du prompt d’entrée, et la technologie étant encore à ses débuts, comportent souvent des “erreurs” de modélisation, le modèle hallucine, ou ne parvient pas à “imaginer” la face arrière d’un gant à partir d’une image. Cela nous donne donc des bibelots cabossés, à l’aspect “fondu” ou brisé numériquement.
J’ai utilisé plusieurs modèles de génération 3D, chacun pour leurs spécificités. Tripo SG permet par exemple la génération de maillages de haute qualité, mais sans textures ni optimisation de leur densité, alors que Treillis génère rapidement des meshs texturés mais avec souvent des "hallucinations" du modèle très visibles.
J'importe automatiquement les modèles dans Houdini grâce à un script python pour nettoyer les maillages et les placer grossièrement les uns à côté des autres et de leur donner des propriétés physiques. En effet, pour pouvoir écraser numériquement des objets, il existe plusieurs manières de procéder : par exemple en faire des objets “mous” - des “soft bodies” - ou des “tissus” numériques - “cloth simulation”. Les deux techniques sont similaires, mais diffèrent dans leur complexité. Les tissus sont représentés par l’ordinateur comme un réseau de points (ou particules), reliés entre eux par des ressorts virtuels. Ce maillage permet de simuler des comportements réalistes, comme la flexibilité, la déformation ou la résistance à l’écrasement. Les soft bodies sont eux des objets fermés avec une masse et un volume, représentés en volume comme un semble de points reliés entre eux par des “ressorts” numériques. Le logiciel doit non seulement calculer l’interaction de l’objet avec les autres objets, comme pour le cas d’un tissu, mais aussi sa propre réaction interne et la manière dont la force appliquée en un point se propage à travers l’ensemble de ces petits ressorts — ce qui est beaucoup plus complexe et coûteux. Après plusieurs essais, j’ai choisi d’utiliser une simulation de soft bodies (vellum tetrahedral), pour avoir des interactions plus "réalistes" des objets entre eux.
Comparé à la première série, le “geste“ de compression a pris alors un autre sens : voir, même numériquement, des objets auxquels nous sommes attachés se faire écraser les uns contre les autres, c’est assister à une certaine violence. La simulation derrière l’écran devient chargée émotionnellement, exprimant à la fois la fascination pour la transformation de la matière et une perte, un deuil à travers cette envie d’agglomérer, de fusionner tous ces souvenirs en un seul objet symbolique.
J'ai pour projet de faire ressortir ces objets de l'écran en les imprimant en 3d, avec de la résine transparente.


















