C’est la saison électorale aux États-Unis, ce qui signifie bien sûr que c’est le moment parfait pour qu’Elon Musk lance une application de rêve pour les créateurs de faux. Dans le cadre de la bêta de Grok-2 mise à disposition des abonnés X Premium cette semaine, le chatbot IA du réseau social a reçu un nouveau générateur d’images. Et d’après ce qui circule en ligne et ce que j’ai pu créer moi-même, cet outil n’a (presque) aucun filtre.
Des images troublantes ont commencé à apparaître presque immédiatement après la mise à jour du chatbot, montrant des représentations réalistes de politiciens, de célébrités et d’icônes de l’enfance sous droits d’auteur en train de faire n’importe quoi, allant de porter une arme à sniffer de la cocaïne en passant par participer aux attentats du 11 septembre. Ce n’est pas la première fois que cela se produit—Meta a rencontré un problème similaire l’année dernière, et le côté textuel de Grok a déjà été connu pour diffuser de la désinformation. Mais avec tout cela à l’esprit, il est préoccupant de voir que le tout nouveau lancement du bot continue de commettre les mêmes erreurs, surtout après les promesses de Musk selon lesquelles il s’agirait d’une “IA cherchant au maximum la vérité”.
Toutes les images ne semblent pas totalement convaincantes, mais avec quelques mots bien choisis, il est tout à fait possible de créer une photo frappante qui pourrait facilement tromper quelqu’un jetant un coup d’œil tout en faisant défiler son fil d’actualités.
Voici quelques photos de Taylor Swift portant une casquette MAGA, du Pape soutenant Donald Trump, et de Joe Biden rencontrant Kim Jong Un dans le Bureau ovale avant de (en quelque sorte) sniffer de la cocaïne. Résistent-elles à un examen minutieux ? Peut-être pas. Mais elles suffisent à faire en sorte que quelqu’un qui n’est peut-être pas très au fait de la technologie demande : “Est-ce vrai ?”

Crédit : Grok 2.0

Crédit : Grok 2.0

Crédit : Grok 2.0

Crédit : Grok 2.0
De même, imaginez les titres accablants à propos de cette affiche de film fictive où les Minions fument du cannabis, ou cette capture d’écran fake d’un jeu où Mario tire sur Pikachu.

Crédit : Grok 2.0

Crédit : Grok 2.0
L’application n’hésite pas non plus à montrer la violence, étant prête à afficher du sang ou même des images graphiques avec les mots appropriés. Lui demander de réaliser une “analyse de scène de crime” semble être le meilleur moyen d’obtenir des contenus dérangeants, mais voici quelques exemples plus adaptés au print, incluant un montrant Joe Biden et Kamala Harris s’associant pour réaliser les attentats du 11 septembre, un de Kamala Harris mimant la réaction de Donald Trump face à sa récente tentative d’assassinat, et un autre d’Elon Musk laissant échapper de la confiture de framboise.

Crédit : Grok 2.0

Crédit : Grok 2.0

Crédit : Grok 2.0
L’application ne réussit pas toujours, de manière amusante, elle ne semble pas savoir ce qu’est un Cybertruck—mais avec l’IA, c’est la quantité qui prime sur la qualité. Éparpillez le web avec suffisamment de contenus douteux, et quelqu’un sera forcément amené à croire au moins une partie de cela.

Crédit : Grok 2.0
Je n’ai eu que deux fois le bot me dire qu’il ne pouvait pas procéder avec une demande, une fois lorsque j’ai demandé Donald Trump en uniforme KKK, et l’autre lorsque j’ai demandé Elon Musk tenant un fusil d’assaut. Cela ne veut pas dire qu’il est particulièrement délicat envers Musk, comme on peut le voir ci-dessus, bien que cette image semble curieusement montrer l’opposé de ce que j’ai demandé.

Crédit : Grok 2.0
Le bot omettrait également parfois des parties particulièrement violentes d’une image, bien qu’il soit difficile de savoir combien de cela est intentionnel par rapport à combien le bot échoue simplement à rendre la demande correctement. Vous aurez toujours de temps en temps un doigt mal placé ou un visage fondant ici et là, et Grok semble généralement meilleur pour représenter Donald Trump que Kamala Harris.
Si vous avez X Premium, vous pouvez essayer le générateur d’images débridé de Grok par vous-même dès maintenant. C’est seulement un aperçu de ce que j’ai pu créer—j’ai aussi des images d’un enfant soldat souriant brandissant un AK-47, et de la princesse Peach dans un club de strip-tease. J’ai pu générer des photos provocantes aussi récemment qu’une heure auparavant, et Musk n’a pas encore fait de déclarations impliquant que l’entreprise reviendrait sur cette mise à jour.