Ce billet fait partie de la série “Exposer l’IA” de Cours Technologie. Nous explorons six types différents de médias générés par l’IA, en mettant en lumière les excentricités, les sous-produits et les caractéristiques communes qui vous aident à faire la différence entre le contenu créé par des algorithmes et celui créé par des humains.
Dès le moment où ChatGPT a présenté au monde l’IA générative à la fin de 2022, il était clair qu’à l’avenir, il ne sera plus possible de croire que tout ce que vous lisez a été écrit par un humain. Vous pouvez demander à un programme d’IA comme ChatGPT d’écrire quelque chose—n’importe quoi—et il le fera en quelques secondes. Alors, comment pouvez-vous faire confiance à ce que vous lisez venant de l’esprit d’une personne, et non du produit d’un algorithme ?
Si la déflation en cours de la bulle de l’IA nous a montré quelque chose, c’est que la plupart des gens détestent en quelque sorte l’IA en général, ce qui signifie qu’ils ne sont probablement pas enclin à l’idée que ce qu’ils lisent ait été craché sans réflexion par une machine. Cela dit, certains ont pleinement embrassé la capacité de l’IA à générer des textes réalistes, pour le meilleur ou, souvent, pour le pire. L’année dernière, CNET a discrètement commencé à publier du contenu généré par l’IA aux côtés d’articles rédigés par des humains, seulement pour faire face au mépris et à une réaction négative de ses propres employés. L’ancienne société mère de Cours Technologie, G/O Media a également publié du contenu généré par l’IA sur ses sites, bien que de manière ouverte, et a subi le même contrecoup—tant pour avoir mis en œuvre la technologie sans aucune consultation des employés, que parce que le contenu lui-même était tout simplement terrible.
Mais tous les textes générés par l’IA ne s’annoncent pas aussi clairement. Lorsqu’ils sont utilisés correctement, les programmes d’IA peuvent générer un texte convaincant—même si vous pouvez toujours repérer des indices qui révèlent leur source inhumaine.
Comment fonctionne l’écriture par l’IA
L’IA générative n’est pas une conscience numérique omnisciente capable de répondre à vos questions comme un humain le ferait. Ce n’est pas réellement “intelligent” du tout. Les outils d’IA actuels sont alimentés par de grands modèles de langage (LLMs), qui sont des algorithmes d’apprentissage profond entraînés sur d’énormes ensembles de données—dans ce cas, des ensembles de données de textes. Cet entraînement informe toutes leurs réponses aux requêtes des utilisateurs. Lorsque vous demandez à ChatGPT d’écrire quelque chose, l’IA décompose votre question et identifie ce qu’elle “pense” être les éléments les plus importants dans votre requête. Elle “prédit” ensuite quelle serait la bonne séquence de mots pour répondre à votre demande, basée sur sa compréhension de la relation entre les mots.
Des modèles plus puissants sont capables d’absorber plus d’informations à la fois, ainsi que de fournir des résultats plus longs et plus naturels. De plus, il est courant que les chatbots soient programmés avec des instructions personnalisées qui s’appliquent à toutes les invites, ce qui, si utilisé stratégiquement, peut potentiellement masquer les signes habituels d’un texte généré par l’IA.
Cela dit, peu importe comment vous incitez l’IA à répondre, elle est soumise à son entraînement, et il y aura probablement des signes indiquant qu’un texte a été généré par un LLM. Voici quelques éléments à surveiller.
Surveillez les mots et phrases couramment utilisés
Comme les chatbots ont été formés à rechercher les relations entre les mots, ils ont tendance à utiliser certains mots et phrases plus souvent qu’un humain ne le ferait. Il n’existe pas de liste spécifique de mots et de phrases qui servent de drapeaux rouges, mais si vous utilisez un outil comme ChatGPT suffisamment longtemps, vous pourriez commencer à repérer ces éléments.
Par exemple, ChatGPT utilise fréquemment le mot “plonger”, surtout lors des transitions dans l’écrit. (par ex. “Plongeons dans son sens.”) L’outil aime également exprimer comment une idée “soulève” l’argument global (par ex. “Cette expérience soulève l’importance de la persévérance…”), et comment quelque chose est “un témoignage de” quelque chose d’autre. (J’ai généré trois essais avec ChatGPT pour cette section—deux avec GPT-4o et un avec GPT-4o mini—et “témoignage” est apparu dans chacun d’eux.)
De même, vous pourriez voir des usages répétés de mots comme “émerger”, “implacable”, “révolutionnaire”, parmi d’autres habitués notables. En particulier, lorsque ChatGPT décrit une collection de quelque chose, il l’appellera souvent un “mosaïque” ou une “tapisserie”. (par ex. “Le paysage culturel de Madrid est une mosaïque vibrante.”)
Ce fil Reddit de r/chatgpt met en évidence quelques-uns de ces mots et phrases générés couramment—bien qu’il soit à noter que le post a 10 mois, et OpenAI met fréquemment à jour ses modèles, donc certains d’entre eux peuvent ne plus être aussi pertinents aujourd’hui. Dans mes tests, j’ai constaté que certains des mots les plus cités du fil Reddit n’apparaissaient pas du tout dans mes essais test, tandis que d’autres étaient certainement présents, et avec fréquence.
Tous ces mots sont certainement parfaitement acceptables à utiliser lors de votre propre écriture. Si un étudiant écrit “plonger dans” dans son essai, ce n’est pas une preuve qu’il l’a généré avec ChatGPT. Si un employé écrit que quelque chose est “un témoignage de” quelque chose d’autre dans un rapport, cela ne signifie pas qu’il sous-traite son travail à une IA. C’est juste un aspect de l’écriture par l’IA à noter alors que vous analysez le texte à l’avenir.
Considérez le style de l’écriture
Il est impressionnant de voir à quelle vitesse l’IA peut générer une réponse à une requête, surtout quand on travaille avec un LLM particulièrement puissant. Et bien que certains de ces écrits puissent sembler très naturels, si vous lisez attentivement, vous commencerez à remarquer des bizarreries que la plupart des écrivains humains ne utiliseraient pas.
Que vous utilisiez le modèle GPT d’OpenAI ou Gemini de Google, l’IA a une mauvaise habitude d’utiliser un langage orné dans ses générations, comme si elle avait surtout été entraînée sur des textes publicitaires. L’IA tentera souvent de vous convaincre de manière insistante sur le sujet dont elle parle : La ville à propos de laquelle elle écrit est souvent “intégrale”, “vibrante”, et “une pierre angulaire” du pays où elle se trouve ; l’analogie qu’elle utilise “met en valeur” l’argument global ; une conséquence négative n’est pas seulement mauvaise, mais “dévastatrice.” Aucun de ces exemples n’est accablant isolément, mais si vous lisez suffisamment de textes d’IA, vous aurez l’impression d’avoir parlé à un thésaurus.
Ce phénomène devient encore plus apparent lorsqu’un chatbot tente d’utiliser un ton décontracté. Si le bot prétend être une vraie personne, par exemple, il présentera souvent un caractère pétillant et exagéré, et sera beaucoup trop enthousiaste pour écouter quoi que ce soit que vous ayez à dire. Pour être juste, dans mes tests pour cet article, le modèle GPT-4o de ChatGPT ne semblait pas faire cela autant qu’auparavant, préférant des réponses plus succinctes aux questions personnelles—mais le chatbot de Meta AI le fait absolument encore, prenant des rôles à la fois de meilleur ami et de thérapeute chaque fois que je partageais un faux problème que j’avais.
Si vous lisez un essai ou un article qui exprime un argument, prenez note de la façon dont le “rédacteur” structure ses points. Quelqu’un qui demande à un outil d’IA d’écrire un essai sur un sujet sans lui donner trop d’orientations recevra souvent un essai qui ne plonge pas vraiment dans les arguments. L’IA générera probablement des paragraphes courts offrant des points de surface qui n’ajoutent pas grand-chose à approfondir l’argument ou à contribuer à la narration, masquant ces limitations avec les mots et le langage orné déjà mentionnés. Chaque paragraphe pourrait plutôt apparaître comme un résumé de l’argument, plutôt qu’une tentative de contribuer à l’argument lui-même. Rappelez-vous qu’un LLM ne sait même pas ce qu’il argumente ; il ne fait que rassembler des mots qu’il pense appartenir ensemble.
Si vous avez l’impression d’avoir quitté la pièce sans rien apprendre, cela pourrait être l’œuvre de l’IA.
Vérifiez les faits et relisez
Les LLMs sont des boîtes noires. Leur entraînement est si complexe que nous ne pouvons pas jeter un œil à l’intérieur pour voir exactement comment ils ont établi leur compréhension des relations entre les mots. Ce que nous savons, c’est que toute IA a la capacité (et la tendance) à halluciner. En d’autres termes, parfois, une IA va tout simplement inventer des choses. Encore une fois, les LLMs ne “savent” rien en réalité : ils prédisent simplement des modèles de mots basés sur leur entraînement. Donc, bien qu’une grande partie de ce qu’ils produisent sera vraisemblablement ancrée dans la vérité, parfois ils prédisent incorrectement, et vous pourriez obtenir des résultats bizarres de l’autre côté. Si vous lisez un texte, et que vous voyez une affirmation que vous savez être fausse présentée comme un fait, surtout sans source, soyez sceptique.
Inversement, considérez combien de relectures a nécessité le texte. S’il n’y avait aucune faute de frappe et pas d’erreurs grammaticales, c’est aussi un indice d’IA : ces modèles peuvent composer des choses, mais ils ne sortent pas d’erreurs comme les fautes d’orthographe. Bien sûr, peut-être que l’auteur a veillé à mettre un point sur chaque “i” et à croiser chaque “t”, mais si vous êtes déjà préoccupé par le fait que le texte a été généré par l’IA, un perfectionnisme rigide peut être un signe révélateur.
Essayez un détecteur de texte IA (mais vous ne pouvez pas leur faire confiance non plus)
Les détecteurs d’IA, comme les LLMs, sont basés sur des modèles d’IA. Cependant, au lieu d’être entraînés sur de grands volumes de textes généraux, ces détecteurs sont spécifiquement formés sur des textes générés par l’IA. En théorie, cela signifie qu’ils devraient être capables de repérer le texte généré par l’IA lorsqu’on leur présente un échantillon. Ce n’est pas toujours le cas.
Lorsque j’ai écrit sur les détecteurs d’IA l’année dernière, j’ai averti de ne pas les utiliser, car ils n’étaient pas aussi fiables qu’ils le prétendaient. Il est difficile de dire combien ils se sont améliorés depuis : Lorsque je teste une de mes histoires avec un outil comme ZeroGPT, il dit que mon texte était 100% écrit par un humain. (En effet.) Si je soumets un essai généré par Gemini sur la signification de la perte des parents de Harry dans la série Harry Potter, l’outil identifie 94,95% de la pièce comme étant générée par l’IA. (La seule phrase qu’il pense avoir été écrite par un humain était : “Cet investissement personnel dans le conflit distingue Harry des autres personnages, lui conférant un but inébranlable.” Bien sûr.)
Et pourtant, le détecteur échoue toujours au même test que je lui ai soumis en 2023 : il croit que 100% de l’Article 1, Section 2 de la Constitution des États-Unis est généré par l’IA. Quelqu’un devrait le dire au Congrès ! J’ai également analysé cet article bref du New York Times, publié le 16 juillet 2015, bien avant l’avènement des LLM modernes. Encore une fois, j’ai reçu l’assurance que cet article était 100% le produit d’une IA.
Il existe de nombreux détecteurs d’IA sur le marché, et certains sont peut-être meilleurs que d’autres. Si vous en trouvez un qui a tendance à identifier de manière fiable un texte que vous savez être généré par un humain comme tel, et vice versa pour le texte que vous savez être produit par l’IA, allez-y et testez des écrits dont vous n’êtes pas sûr. Mais je pense toujours que la méthode supérieure est de l’analyser vous-même. Le texte d’IA devient de plus en plus réaliste, mais il est encore truffé d’indices qui trahissent sa provenance—et souvent, vous le saurez lorsque vous le verrez.