Santé : Google retire des résumés générés par IA après des erreurs médicales préoccupantes

Les résumés générés par intelligence artificielle de Google, affichés en tête des résultats de recherche santé, sont censés simplifier l’accès à l’information médicale. Mais début 2026, plusieurs enquêtes ont mis en lumière des erreurs médicales sérieuses, parfois potentiellement dangereuses. Face à la polémique, Google a commencé à retirer certains de ces contenus.

Une décision ciblée, qui relance un débat de fond sur la place de l’IA dans l’information de santé.

A retenir :

  • Des erreurs médicales avérées ont été détectées dans les résumés IA de Google
  • Google a retiré ou modifié certains contenus santé
  • Le risque principal concerne la confiance excessive accordée à ces réponses automatisées

Des résumés IA pointés du doigt par plusieurs enquêtes

Selon une enquête publiée par The Guardian, les « AI Overviews » de Google ont diffusé des conseils médicaux inexacts, parfois contraires aux recommandations cliniques établies. Selon La Santé Publique, ces résumés pouvaient présenter des informations sorties de leur contexte ou incomplètes, sans préciser leurs limites.

Dans mon travail journalistique, j’ai déjà observé ce phénomène avec d’autres outils numériques : la forme synthétique inspire confiance, même lorsque le fond est fragile. Selon Siècle Digital, Google a reconnu des dysfonctionnements, tout en assurant que la majorité des résumés restaient fiables.

A lire également :  Le web de 2025 dominé par les bots, révèle une étude Cloudflare

Des erreurs médicales concrètes et préoccupantes

Plusieurs exemples ont particulièrement alarmé les professionnels de santé.

Dans le cas du cancer du pancréas, l’IA recommandait d’éviter les aliments gras. Or, selon des spécialistes cités par ALM Corp, ces patients ont souvent besoin d’un apport calorique élevé, y compris lipidique. Ce type de conseil peut donc fragiliser des personnes déjà vulnérables.

Autre cas relevé : des valeurs “normales” de bilans hépatiques présentées sans tenir compte de l’âge ou du sexe. Pire, le frottis cervical était parfois décrit comme un test de dépistage du cancer du vagin, ce qui est médicalement inexact. Selon La Santé Publique, ces erreurs peuvent induire de faux sentiments de sécurité.

« Une information médicale imprécise peut retarder un diagnostic ou dissuader de consulter. »
— Témoignage d’un professionnel de santé interrogé lors d’une enquête

Google se défend mais ajuste sa copie

Face aux critiques, Google affirme que la précision de ses Aperçus IA est comparable à celle des extraits optimisés classiques. Selon NewsTarget, l’entreprise parle de cas marginaux, mais reconnaît avoir pris des mesures correctives ciblées.

Concrètement, certains résumés ont été supprimés, d’autres réécrits. Les algorithmes ont aussi été ajustés pour éviter les contenus mal interprétés. Une stratégie prudente, mais qui ne dissipe pas toutes les inquiétudes.

Pourquoi ces dérives inquiètent les acteurs de la santé

Le principal problème tient à la position dominante de ces résumés. Placés tout en haut des résultats, ils bénéficient d’une autorité perçue très forte. Selon Chosun, ce biais cognitif est particulièrement dangereux pour les sujets liés au diagnostic ou aux traitements.

A lire également :  Deezer partage son outil anti-IA avec Spotify et Apple Music : un tournant contre la musique générée artificiellement

Dans mes échanges avec des associations de patients, un point revient souvent : en situation de stress, on cherche des réponses rapides. Selon Infirmier Marseille, cette confiance immédiate accordée à l’IA peut conduire à retarder une consultation médicale, avec des conséquences graves.

Comment utiliser l’IA santé sans se mettre en danger

L’IA peut rester un outil utile, à condition d’être utilisée avec discernement. Selon Santé Mag, un résumé IA doit être considéré comme une porte d’entrée, jamais comme une décision médicale.

Voici les réflexes essentiels à adopter :

  • vérifier l’information sur des sites institutionnels reconnus
  • consulter un professionnel de santé avant toute décision

J’ai moi-même testé ces résumés par curiosité. Le gain de temps est réel. Mais l’absence de nuance médicale saute vite aux yeux lorsqu’on compare avec des sources spécialisées.

Un débat de fond sur l’IA et l’information médicale

Cet épisode illustre une tension plus large : vitesse contre fiabilité. L’IA excelle dans la synthèse, mais la médecine repose sur le contexte, l’individualisation et l’expertise humaine. Selon Le Point, la question n’est plus de savoir si l’IA fera des erreurs, mais comment les encadrer avant qu’elles n’affectent la santé publique.

Google ajuste aujourd’hui ses outils. Reste à savoir si ces garde-fous seront suffisants à long terme, alors que l’IA générative s’impose dans le quotidien numérique.

Laisser un commentaire