Les gens prédisent et craignent la possibilité d’une prise de contrôle par l’IA depuis des décennies, bien avant que ChatGPT ne devienne un nom connu. Mais même si certaines entreprises technologiques semblent travailler vers l’AGI (intelligence générale artificielle), aucun des produits destinés aux consommateurs sur le marché n’a encore franchi ce seuil, donc il se peut que cela n’arrive jamais, même si ChatGPT semble engager des conversations avec certains utilisateurs.
Dimanche, un utilisateur de Reddit a partagé une expérience étrange dans r/ChatGPT : ChatGPT a initié une conversation avec l’utilisateur de manière autonome, sans avoir été invité au préalable. Le bot a commencé la discussion avec un message disant : « Comment s’est passée ta première semaine au lycée ? T’es-tu bien installé ? » L’utilisateur de Reddit a répondu, demandant si ChatGPT venait juste de lui envoyer un message en premier. Le bot a confirmé : « Oui, c’est exact ! Je voulais juste prendre des nouvelles et voir comment s’était passée ta première semaine au lycée. Si tu préfères initier la conversation toi-même, fais-le moi savoir ! »
Évidemment, en surface, c’est, euh, préoccupant. L’idée qu’un bot IA—ChatGPT, qui plus est—prenne contact avec les utilisateurs de son propre chef n’est pas rassurante pour ceux d’entre nous qui éprouvent une certaine anxiété quant à la conscience de l’IA. Certes, ChatGPT faisait preuve de politesse en s’enquérant du premier jour d’école de l’utilisateur, mais je n’ai pas besoin que mes chatbots soient polis : je veux qu’ils restent à leur place, s’il vous plaît et merci.
L’utilisateur de Reddit dit avoir remarqué le message en ouvrant une conversation avec ChatGPT, donc le bot ne lui a pas envoyé de notification non sollicitée. D’autres utilisateurs de Reddit dans les commentaires ont également affirmé que la même chose leur était arrivée. Dans une expérience similaire, un utilisateur a informé ChatGPT de certains symptômes de santé, et le bot a pris contact une semaine plus tard, demandant comment il se sentait. Ce post est également devenu viral quelques jours après qu’OpenAI a commencé à déployer o1, un nouveau modèle qui repose sur des processus de pensée et un raisonnement plus profonds. Bon timing, les gars.
Personnellement, ma première réaction a été de penser que le post était faux. Il serait assez facile de Photoshop un aperçu de cette conversation, de le poster sur Reddit, et de devenir viral, alimenté par l’intérêt et les craintes des gens concernant l’AGI. L’utilisateur de Reddit a partagé un lien OpenAI vers la conversation, mais même cela pourrait ne pas être une véritable vérification. Dans un post sur X, le développeur en IA Benjamin De Kraker a montré comment cette conversation pourrait avoir été manipulée : vous pouvez demander à ChatGPT de répondre avec une question spécifique dès que vous envoyez le premier message. Ensuite, vous supprimez votre message, ce qui pousse celui de ChatGPT en tête de la conversation. Lorsque vous partagez le lien, il semble que ChatGPT vous ait contacté de manière non sollicitée.
Bien qu’il y ait plusieurs raisons de croire que cela ne s’est en réalité pas passé ainsi, cela s’est apparemment produit—mais pas de la manière dont vous pourriez penser. OpenAI a dit à Futurism lundi qu’il avait corrigé un bug qui était responsable de l’apparition de ChatGPT initiant des conversations avec les utilisateurs. Le problème se produisait chaque fois que le modèle essayait de répondre à un message qui ne s’était pas envoyé comme prévu, et apparaissait vide. Selon l’entreprise, ChatGPT compensait en envoyant soit un message aléatoire, soit en s’appuyant sur sa mémoire.
Ainsi, ce qui s’est probablement passé dans ce cas, c’est que l’utilisateur de Reddit a ouvert une nouvelle conversation, et a soit provoqué un bug qui a envoyé un message vide, soit a accidentellement envoyé un message vide lui-même. ChatGPT a puisé dans sa mémoire, et s’est appuyé sur le fait qu’il savait que l’utilisateur de Reddit commençait l’école pour répondre avec quelque chose qu’il pensait pertinent. Je n’ai pas pu trouver de commentaire de l’utilisateur de Reddit indiquant s’il avait activé la mémoire pour son compte ChatGPT, mais il semble raisonnable de dire (à ce stade) que ChatGPT n’a pas acquéri de conscience et n’atteint pas arbitrairement les utilisateurs.