Les vidéos générées par l’IA ne sont pas seulement l’avenir : elles sont déjà là, et elles sont effrayantes. Les entreprises d’IA déploient des technologies capables de produire des vidéos réalistes à partir de simples invites textuelles. Adobe est tout simplement la dernière en date, et leurs vidéos générées par l’IA sont impressionnantes – même si les démonstrations sont brèves.
Modèle de vidéo Adobe Firefly
Le modèle de vidéo Firefly est un peu différent de ceux que nous avons déjà vus. La plupart des générateurs de vidéos IA fonctionnent comme les générateurs d’images IA : vous rédigez une invite décrivant ce que vous souhaitez que le modèle crée, puis le modèle produit une sortie basée sur son ensemble de formation.
Cela se produit toujours ici, car vous pouvez demander au modèle de produire une vidéo spécifique. Mais Adobe intègre plus d’outils d’édition vidéo IA que des modèles comme Sora d’OpenAI. Par exemple, Adobe indique que vous pourrez utiliser des contrôles de caméra, tels que l’angle, le mouvement et le zoom, pour « affiner » les vidéos. Dans l’une des invites démontrées, Adobe demande à l’IA de produire une vidéo avec un « effet de zoom dolly dramatique », tandis que la barre latérale montre plusieurs contrôles de caméra, y compris la taille du plan, l’angle de la caméra et les contrôles de mouvement. En théorie, vous pourriez générer une vidéo, cliquer sur l’option de mouvement « à main levée » pour ajouter un effet de tremblement, et contrôler l’intensité de ce tremblement via un curseur qui apparaît dans ce menu.
L’entreprise présente également des exemples de la manière dont cette technologie peut être ajoutée à du contenu vidéo réel : Adobe indique que vous pourrez prolonger des clips existants dans votre chronologie en utilisant des vidéos générées par l’IA, via la version bêta de Premiere Pro. L’objectif, selon l’entreprise, est de combler les lacunes de votre chronologie, donc si vous avez un plan qui n’est pas assez long, l’IA peut l’allonger artificiellement. Le modèle serait également capable de transformer des images en vidéos. Si vous avez une photo ou un dessin que vous souhaitez utiliser comme référence pour une vidéo générée par l’IA, vous pouvez l’utiliser à la place d’une invite textuelle.
Vous pouvez également utiliser l’outil pour générer des effets d’animation 2D et 3D dans vos vidéos. La vidéo de démonstration met en avant un effet de mouvement 2D appliqué à une vidéo réelle d’une personne dansant, tandis qu’un autre exemple montre le mot « TIGRE » fait de fourrure sur un champ, flottant dans le vent.
Adobe souligne que le modèle de vidéo est formé sur des œuvres tombées dans le domaine public et est conçu pour être « commercialement sûr ». Cela contraste fortement avec d’autres acteurs du domaine de l’IA, comme OpenAI, Midjourney et Stability AI, dont beaucoup sont poursuivis en justice pour avoir prétendument utilisé des matériaux protégés par des droits d’auteur pour former leurs modèles IA.
Cependant, toute la bonne volonté qu’Adobe pourrait avoir gagnée grâce à cette décision pourrait être annulée par l’indignation concernant ses politiques, qui semblent suggérer que l’entreprise peut accéder à tout travail que les utilisateurs sauvegardent sur Creative Cloud dans le but de former des programmes d’IA non génératives. Certes, c’est formidable que Firefly ne vole pas aux artistes et ne met pas les créatifs en difficulté commerciale, mais si vous devez renoncer à votre propre confidentialité créative pour l’utiliser, est-ce que cela en vaut la peine ?
Ces outils seront disponibles dans Creative Cloud, Experience Cloud et Adobe Express, ainsi que via firely.adobe.com. Adobe a une liste d’attente pour être informé lorsque le modèle de vidéo Firefly sera disponible en version bêta, à laquelle vous pouvez vous inscrire ici.
Conclusion
Voici le point : les produits dans la vidéo d’Adobe ont fière allure. Si vous regardiez la vidéo hors contexte, vous pourriez ne pas réaliser que la plupart – sinon la totalité – des plans de démonstration présentés étaient, en fait, totalement générés de manière artificielle.
Mais Adobe montre astucieusement la plupart des clips pendant une seconde ou deux au maximum, ce qui rend difficile d’évaluer le bon fonctionnement du générateur. La qualité des sujets est solide et convaincante, mais sans voir à quel point le modèle reproduit bien le mouvement, ou à quel point les résultats restent réalistes sur la durée, disons, d’une minute, il est difficile de dire comment ce modèle va se situer par rapport aux autres.
Le clip le plus long que j’ai vu d’Adobe est cette vidéo de quatre ou cinq secondes d’un renne : elle est plutôt réaliste, et le grand angle avec un aspect à main levée aide probablement à vendre l’effet.
Il est possible qu’Adobe ait réalisé des avancées dans la qualité de la vidéo générée par l’IA. Il est également possible que ces vidéos soient soumise aux mêmes défauts que les générateurs existants, et qu’elles se détériorent avec le temps et l’examen. Une fois qu’Adobe aura partagé de plus longues vidéos de démonstration, ou lancé la version bêta, nous aurons une meilleure idée.