Après la création d’images artistiques et de tableaux, c’est maintenant l’art de la vidéo instantanée qui n’aura bientôt plus de secret pour l’intelligence artificielle (IA), du moins en apparence.
Depuis les derniers mois, c’est la course au contenu généré artificiellement grâce à quelques mots-clés et une IA inspirée. Après l’excitation autour du lancement de DALL-E 2, qui génère des images à partir d’un texte, Microsoft a présenté Microsoft Designer, « une nouvelle application de conception graphique » qui intègre les « meilleures IA, dont DALL-E 2 ». Se défendant face aux détracteurs de cette IA, Microsoft prétend que le logiciel a été conçu pour « donner vie à vos visions créatives ».
Notons que de nombreuses applications web s’appuient sur le langage GPT-3, telles que le programme DALL-E, et sont de plus en plus sollicitées pour créer des images dans les concours d’art, en marketing ou simplement pour le plaisir.
Force a été de constater, au cours des derniers jours, que les développeurs de l’IA en matière de création visuelle automatique ne s’arrêteront pas là.
De l’image statique au vidéoclip
À la fin septembre, Meta AI a dévoilé un nouveau projet de recherche et présenté de courts vidéoclips qui avaient été obtenus en sollicitant Make-A- Video, un nouveau système d’IA capable de créer des vidéos en quelques secondes à partir d’invites textuelles : un chien muni d’une cap volant comme superman, un cheval qui s’abreuve, un vaisseau d’extraterrestre sorti tout droit d’un vieux film de science fiction, etc.
L’élaboration de ce nouvel outil se fonderait sur les récents progrès de Meta AI, notamment sur Make-A-Scene, annoncé en juillet dernier. Si aucun outil dans le genre n’est encore accessible au grand public, l’objectif de Meta AI est d’en faire la démocratisation.
Quelques jours après le dévoilement de Make-A-Video, Google a contre-attaqué en dévoilant les premières séquences de son propre logiciel, Imagen Video, qui crée des clips de cinq secondes à partir de mots-clés, tels qu’un panda prenant une selfie ou une girafe sortant sa tête d’une vieille télévision.
« Nous pensons qu’Imagen Video peut non seulement générer des vidéos de haute définition, mais aussi offrir un degré élevé de contrôle et de précision, tout en s’appuyant sur la connaissance du monde. »
– Équipe de recherche Google
Jusqu’à présent, tous les outils accessibles au public en matière de création visuelle se voulaient peu précis. Offrant un résultat pour le moins loufoque et peu exploitable, ils trouvaient habituellement preneurs dans le contexte de la démonstration ou du divertissement plutôt que dans l’application concrète. Mais l’IA d’Imagen Video a-t-elle repoussé ces limites?
« Nous pensons qu’Imagen Video peut non seulement générer des vidéos de haute définition, mais aussi offrir un degré élevé de contrôle et de précision, tout en s’appuyant sur la connaissance du monde. Il peut générer des vidéos et animations variées sur le plan des styles artistiques, avec une compréhension exceptionnelle du 3D », affirme l’équipe de recherche Google dans un rapport.
Comment ça fonctionne?
Pour obtenir un tel résultat, il aura fallu exposer l’IA à des millions d’images, chacune associée à de courtes descriptions textuelles, pour entraîner les algorithmes afin que l’outil puisse en comprendre les associations et proposer du contenu qui s’en inspire. Dans le cas de Google, ce sont 60 millions d’images qui ont nourri la base de données sur laquelle s’est construit son logiciel par apprentissage-machine.
La dénaturation du droit de la création
Brouillant les frontières entre le rôle de l’outil et celui de l’auteur, la technologie n’est plus seulement utilisée pour exécuter l’idée. Elle l’est donc aussi pour créer. Faut-il s’inquiéter d’un tel degré d’autonomie? Ou se réjouir de l’invention de nouvelles « méthodes de création » qui seront bientôt démocratisée à l’échelle de la planète et peu coûteuses? La dénaturation de la création et du droit d’auteur en sera-t-elle, finalement, le prix à payer? Entre les développeurs et les artistes, on est encore loin du consensus.
N’empêche, les utilisateurs d’outils comme DALL-E ou encore Midjourney sont de plus en plus nombreux à se découvrir un penchant créatif et une fibre artistique, se prêtant au jeu des directives textuellement données à l’IA quant aux concepts qu’ils orientent : « J’essaie de créer des couvertures d’albums avec MidJourney, c’est incroyable », témoigne un utilisateur du nom de Vincere sur Twitter. « Je me suis rapidement essayé à Midjourney en générant une couverture pour mon livre. Je trouve le résultat assez convaincant après quelques retouches. Il s’approche assez bien de la façon dont je vois les choses », se félicite quant à lui Néodyme, artiste émergent de la photographie virtuelle et de la retouche d’image.
Sur le même thème :
- Article du 2 septembre 2022 : Art artificiel et cryptomonnaie : la technologie va-t-elle trop loin dans le monde de l’art?
- Article du 3 août 2022 : Quand l’intelligence artificielle élabore des concepts publicitaires
- Article du 23 juin 2022 : [Émission C+clair] : Comment l’IA peut-elle mieux faire rayonner les artistes québécois?
Crédit Image à la Une : Imagen Video