Stable Diffusion est un modèle d’intelligence artificielle (IA) qui crée des images. Son fonctionnement est similaire à celui d’autres modèles d’IA générative tels que ChatGPT. Lorsqu’il reçoit une invite textuelle, Stable Diffusion crée des images sur la base de ses données d’apprentissage.
Qu’est-ce que la diffusion stable ?
Stable Diffusion est un programme informatique qui crée des images à partir d’un texte. Par exemple, l’invite "pomme" produira l’image d’une pomme. Il peut également répondre à des questions plus complexes, comme la création de l’image d’une pomme dans un style artistique spécifique.
En plus de générer des images, il peut remplacer des parties d’une image existante et étendre des images pour les agrandir. L’ajout ou le remplacement d’éléments dans une image est appelé inpainting, et l’extension d’une image pour la rendre plus grande est appelée outpainting. Ces processus peuvent modifier n’importe quelle image, que l’image originale ait été créée avec l’IA ou non.
Le modèle de diffusion stable est un logiciel libre, donc tout le monde peut l’utiliser.
Comment l’IA peut-elle générer des images ?
L’IA peut générer des images de différentes manières, mais la diffusion stable utilise ce que l’on appelle un modèle de diffusion latente (MLD). Le modèle part d’un bruit aléatoire qui ressemble à l’électricité statique d’une télévision analogique. À partir de ce bruit initial, il passe par de nombreuses étapes pour éliminer le bruit de l’image jusqu’à ce qu’elle corresponde à l’invite du texte. Cela est possible parce que le modèle a été formé en ajoutant du bruit à des images existantes, de sorte qu’il s’agit essentiellement d’inverser le processus.
Le modèle Stable Diffusion a été entraîné sur de nombreuses images provenant d’Internet, principalement de sites Web tels que Pinterest, DeviantArt et Flickr. Chaque image était légendée par un texte, ce qui permet au modèle de savoir à quoi ressemblent différentes choses, de reproduire différents styles artistiques et de transformer un texte en image. Le modèle peut également être affiné en utilisant d’autres séries d’images pour produire des résultats différents.
À quoi sert la diffusion stable ?
La diffusion stable est utilisée pour générer des images à partir d’un texte et pour modifier des images existantes à l’aide des processus d’inpainting et d’outpainting. Par exemple, il peut créer une image entière sur la base d’une description textuelle vivante, ou remplacer une petite partie d’une image existante.
Peut-on dire qu’une image est générée par l’IA ?
Stable Diffusion peut créer des images photoréalistes difficiles à différencier de la réalité et des images difficiles à distinguer d’œuvres d’art dessinées ou peintes à la main. Elle peut également produire des images qui sont clairement fausses en fonction des invites et d’autres facteurs.
L’un des moyens de repérer les œuvres d’art générées par l’IA est de regarder les mains, car le modèle de diffusion stable et d’autres modèles ont beaucoup de difficultés dans ce domaine. Si le sujet d’une image cache ostensiblement ses mains, c’est le signe que quelqu’un a eu recours à une technique astucieuse pour contourner les lacunes du modèle d’IA. N’oubliez pas, cependant, que les modèles d’IA évoluent incroyablement vite, de sorte que ces lacunes seront probablement de courte durée.
Controverses et problèmes liés à la diffusion stable
Les images générées par la diffusion stable peuvent théoriquement être utilisées à n’importe quelle fin, mais il existe un certain nombre de pièges liés au contenu généré par l’IA.
Étant donné que la génération d’images par l’IA doit apprendre à connaître les objets à partir de quelque part, ses programmeurs ont fouillé l’internet à la recherche d’œuvres d’art contenant des métadonnées. Ils l’ont fait sans l’autorisation des créateurs de l’œuvre source, ce qui pose des problèmes de droits d’auteur.
Cette question est d’autant plus délicate que Stable Diffusion ne crée pas ses images à partir de rien, mais les assemble à partir de celles qu’elle a étudiées. Ainsi, tant pour l’apprentissage que pour la création, elle utilise le travail d’autres artistes, qu’ils l’aient autorisé ou non. Des sites comme DeviantArt n’ont évité les abandons massifs qu’en permettant aux utilisateurs de refuser que les systèmes d’IA utilisent leurs œuvres à des fins d’apprentissage.
La question des droits d’auteur sur les œuvres créées en partie par l’IA est également obscure, car des demandes de droits d’auteur pour des œuvres comprenant des éléments générés par l’IA ont été refusées. Malgré cela, à mesure que la génération d’images par l’IA se répand, elle menace les moyens de subsistance des artistes traditionnels, qui risquent de perdre des œuvres au profit de cette méthode moins coûteuse et plus facile.
FAQ
- Qu’est-ce que l’AI art ?
"AI art" est un terme général pour Stable Diffusion, Midjourney, DALL-E, et d’autres générateurs d’images en langage naturel. Chaque version peut utiliser des méthodes différentes pour s’entraîner et créer des images, mais elles relèvent toutes de la description "ai art".
- Pourquoi AI art ne peut-il pas faire des mains ?
L’art de l’IA a des difficultés avec les mains et les dents. En effet, si les générateurs " savent, " en général, ce que sont ces parties du corps, ils ne comprennent pas le nombre typique de doigts ou de dents que possèdent les êtres humains.