Google : les résumés IA fournissent des informations de santé inexactes

Dans une enquête exclusive publiée vendredi 2 janvier, The Guardian révèle que les résumés IA de Google contiennent parfois des informations de santé erronées. Le quotidien britannique rapporte un cas où le chatbot a conseillé à des personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en matières grasses, les exposant ainsi à des difficultés à prendre du poids et à supporter la chimiothérapie. Mais le géant du numérique assure que son système reste fiable et que le média se base sur des « captures d’écran incomplètes ».

Google jure depuis son lancement que la fonctionnalité « Aperçu IA », qui utilise l’intelligence artificielle générative pour croiser des sources et présenter brièvement les informations clés sur des sujets ou des questions spécifiques, est très fiable et utile. Mais The Guardian démonte cette affirmation. Le quotidien britannique a publié vendredi 2 janvier une enquête exclusive dans laquelle il affirme que cet outil peut générer des réponses médicales erronées. « L’Aperçu IA affiché en haut des résultats de recherche peut mettre les gens en danger en fournissant des informations de santé inexactes. », avertit le média.

Des cas de résumés IA problématiques

Dans son rapport, The Guardian cite des cas dans lesquels l’IA de Google a donné des informations trompeuses. L’algorithme aurait notamment conseillé à des personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en matières grasses. Or, souligne Anna Jewell, directrice du soutien, de la recherche et de la sensibilisation chez Pancreatic Cancer UK, un patient qui suivrait cette recommandation « ne consommerait pas suffisamment de calories » et aurait « des difficultés à prendre du poids », s’exposant ainsi au « risque de ne pas supporter la chimiothérapie ni une intervention chirurgicale potentiellement vitale ».

Dans un autre exemple, l’intelligence artificielle de Google a donné des informations « inexactes » concernant les tests de dépistage du cancer chez les femmes. D’après les experts, le groupe pourrait amener les gens à ignorer de véritables symptômes et à ne pas consulter des spécialistes.

L’IA de Google change de réponses pour une même sollicitation

En outre, à la requête « quel est le seuil normal pour les analyses de sang du foie », le chatbot aurait fourni des informations trompeuses, avec une multitude de chiffres, peu de contexte et aucune prise en compte de la nationalité, du sexe, de l’origine ethnique ou de l’âge des patients. Par ailleurs, The Guardian a constaté que les aperçus de IA de Google fournissaient des résultats erronés pour les recherches sur les troubles mentaux.

« C’est extrêmement préoccupant pour nous, en tant qu’association caritative », a déploré Stephen Buckley, responsable de l’information chez Mind. Enfin, des organisations de santé et des associations caritatives ont alerté sur le fait que l’algorithme changeait constamment de réponses lorsqu’elles effectuaient exactement la même recherche sur différents appareils ou en employant des synonymes.

Les résumés IA renverraient « à des sources réputées et bien connues »

En réponse à l’enquête de The Guardian, Google a dit regretter que les exemples communiqués soient des « captures d’écran incomplètes ». Un porte-parole du groupe ajoute que les synthèses renvoyaient « à des sources réputées et bien connues », mais recommande tout de même de « consulter un expert » avant d’appliquer les recommandations santé en ligne.

Il note également que le taux de précision des résumés est comparable à celui des autres fonctionnalités de recherche, comme les extraits optimisés, disponibles depuis plus de dix ans. Enfin, Google annonce prendre des mesures appropriées conformément à ses politiques, pour ne plus que son AI Overviews interprète mal le contenu Web ou manque de contexte.