Malgré ses explications sur les problèmes liés à ses Aperçus IA tout en promettant de les améliorer, Google semble toujours dire aux gens de mettre de la colle dans leur pizza. En fait, des articles comme celui-ci ne font qu’aggraver la situation.
Lorsqu’ils ont été lancés à tous aux États-Unis peu après Google I/O, les Aperçus IA sont rapidement devenus la risée de la recherche, conseillant aux gens de manger des pierres, d’utiliser des plugs anaux en squatant, et, peut-être plus célèbre encore, d’ajouter de la colle à leur pizza maison.
La plupart de ces réponses problématiques ont vite été supprimées du web, et Google a émis une excuse quelque peu défensive. Malheureusement, si vous utilisez la bonne formulation, vous pouvez toujours obtenir ces “réponses” manifestement incorrectes.
Dans un post du 11 juin, l’utilisateur de Bluesky Colin McMillen a déclaré qu’il était encore capable de faire dire aux Aperçus IA d’ajouter « 1/8 de tasse, ou 2 cuillères à soupe, de colle blanche non toxique à la sauce à pizza » en posant la question « combien de colle ajouter à la pizza ? »
La question semble conçue intentionnellement pour déstabiliser les Aperçus IA, c’est sûr — bien que, compte tenu du discours récent, une personne bien intentionnée qui n’est pas trop connectée pourrait légitimement être curieuse de savoir ce qui se passe. Quoi qu’il en soit, Google a promis de s’attaquer même à des questions orientées comme celles-ci (car il ne veut probablement pas que son IA semble approuver quoi que ce soit qui pourrait rendre les gens malades), et il ne l’a clairement pas fait.
Peut-être plus frustrant est le fait que l’Aperçu IA de Google a attribué l’affirmation récente sur la pizza à Katie Notopoulus de Business Insider, qui n’a certainement pas dit aux gens de mettre de la colle dans leur pizza. En réalité, Notopoulus rapportait l’erreur initiale de l’Aperçu IA; l’IA de Google a simplement décidé d’attribuer cette erreur à elle à cause de cela.
« L’IA de Google est déjà en train de se dévorer elle-même », a déclaré McMillen en réponse à la situation.
Je n’ai pas pu reproduire moi-même la réponse, mais The Verge l’a fait, bien que sous une formulation différente : L’Aperçu IA citait toujours Business Insider, mais attribuait correctement le conseil initial à l’IA de Google. Ce qui signifie que la source de l’IA de Google pour ses hallucinations continues est… elle-même.
Ce qui semble se passer ici, c’est que Google a empêché son IA d’utiliser des publications sarcastiques de Reddit comme sources, mais elle se tourne désormais vers des articles de presse rapportant ses erreurs pour combler les lacunes. En d’autres termes, à mesure que Google fait des erreurs, et que les gens en rendent compte, Google utilise alors ce rapport pour justifier ses affirmations initiales. The Verge a comparé cela à une attaque de Google bombing, une ancienne tactique où les gens associaient les mots « échec misérable » à une photo de George W. Bush si souvent que les images Google renvoyaient une photo du président lors de la recherche de la phrase.
Google devrait probablement corriger ce dernier faux pas de l’IA bientôt, mais c’est un peu une situation de « poser les rails du train au fur et à mesure », et cela ne devrait certainement rien faire pour améliorer la réputation de la recherche IA.
Quoi qu’il en soit, juste au cas où Google attacherait mon nom à un futur Aperçu IA en tant que source, je veux préciser : Ne mettez pas de colle dans votre pizza (et laissez de côté l’ananas tant que vous y êtes).