Les patients et l'IA

  • Mar 4, 2026

Tes patients utilisent ChatGPT — voici quoi leur dire

    20 % des jeunes adultes consultent l'IA avant de venir en consultation. Sais-tu quoi leur répondre? Voici 5 réponses cocrètes, études à l'appui.

    Lundi matin, 11h. Une patiente entre dans ton cabinet. « J'ai regardé sur ChatGPT, il m'a tout expliqué. Il faut que vous prescriviez ça. » Tu vas entendre cette phrase de plus en plus souvent : aujourd'hui, 20 % des jeunes adultes consultent l'IA avant de venir en consultation.

    La question n'est pas de savoir si c'est bien ou mal. C'est de savoir si tu as les arguments pour en parler — sur l'outil lui-même, pas sur le diagnostic. Dans cet article, je te donne 5 points concrets, appuyés sur des études récentes, pour reprendre ta place dans cette conversation.


    Pourquoi c'est important d'en parler maintenant ?

    ChatGPT, c'est un outil puissant — mais conçu pour paraître utile et cohérent, pas pour être médicalement fiable. Et tes patients, eux, n'ont aucun moyen de faire la différence.

    Sans un cadre posé par toi, c'est l'IA qui structure la relation thérapeutique avant même que tu aies ouvert la bouche. Autant reprendre la main.


    Les 5 points à connaître (et à transmettre)

    1. Les hallucinations : l'IA invente sans le signaler ⚠️

    ChatGPT ne réfléchit pas. Il prédit le mot suivant le plus probable — c'est tout. Il n'a aucune notion de ce qui est vrai ou faux, et il est entraîné à toujours donner une réponse, même quand il ne sait pas.

    Résultat concret : selon une étude récente, l'IA se trompe dans 20 % des cas lorsqu'un patient lui pose une question de santé — sans jamais le signaler.

    💬 Ce que tu peux dire à tes patients : « ChatGPT ne cherche pas la vérité. Il cherche à formuler une réponse qui semble logique. Dans près d'un cas sur cinq, cette réponse est fausse — et tu ne peux pas le savoir. »


    2. La confidentialité : ce qu'ils tapent ne disparaît pas 🔒

    Beaucoup de patients croient qu'une conversation avec ChatGPT est privée. Elle ne l'est pas. Les sociétés américaines sont soumises au Cloud Act : leurs données peuvent être accessibles aux autorités américaines, même si les serveurs sont en France.

    Chaque symptôme, chaque traitement, chaque pathologie tapée peut être stockée, analysée, réutilisée.

    💬 Ce que tu peux dire à tes patients : « Ne saisissez jamais votre nom, vos symptômes ou vos traitements dans ChatGPT sans y avoir réfléchi. Ce n'est pas une conversation privée. »


    3. Les problèmes d'interprétation : une réponse générale, pas personnelle

    Même si la réponse est juste sur le plan médical, le patient n'a pas les outils pour l'interpréter dans son propre contexte. ChatGPT ne connaît pas ses antécédents, ses comorbidités, ses interactions médicamenteuses. Et il mélange les études du New England Journal avec les forums de naturopathie — sans hiérarchiser.

    Résultat : automédication, convictions bien installées avant la consultation, et souvent une bonne dose d'anxiété injustifiée.

    💬 Ce que tu peux dire à tes patients : « ChatGPT répond à votre question, pas à votre situation. C'est la différence entre lire une notice et avoir un médecin en face de vous. »


    4. Le retard de soin : le faux sentiment de sécurité

    C'est le risque le plus concret, avec des conséquences cliniques réelles. Un patient qui craint que ses symptômes soient graves va souvent formuler sa question de façon à appeler une réponse rassurante — et l'IA va la lui donner. Non par malveillance, mais parce qu'elle est entraînée à aller dans le sens de l'utilisateur.

    Ce faux sentiment de sécurité peut retarder une consultation de quelques jours… ou de plusieurs semaines.

    💬 Ce que tu peux dire à tes patients : « Si ChatGPT vous dit que ce n'est probablement pas grave, ce n'est pas un diagnostic. L'IA n'a pas examiné votre ventre. Elle n'a pas écouté votre cœur. Si vous avez un doute, consultez. »


    5. Le match Google vs ChatGPT : la surprise des études

    On suppose souvent que ChatGPT est plus performant que Google pour les questions de santé. Les études disent autre chose.

    Une étude portant sur plus de 1 300 patients a comparé les deux outils pour l'évaluation des symptômes. Pour estimer la gravité d'un état, l'IA obtient 44 % de réponses correctes — comparable à Google. Pour la précision diagnostique, elle tombe à 35 %, contre 55 % pour Google.

    Dans près de deux tiers des cas, l'IA n'aide pas — voire oriente mal.

    💬 Ce que tu peux dire à tes patients : « Les études montrent que ChatGPT est moins fiable que Google pour évaluer vos symptômes. Dans deux tiers des cas, il vous oriente mal. »


    Mes 3 conseils pour aborder le sujet en consultation

    • Ne diabolise pas l'outil. L'objectif n'est pas de convaincre tes patients d'arrêter de l'utiliser — c'est de les aider à l'utiliser avec discernement.

    • Prépare une ou deux phrases-clés. Pas besoin d'un long discours : une formule percutante suffit à recadrer en 30 secondes.

    • Utilise la fiche OMS. Avoir un document à remettre crédibilise le message et prolonge la conversation après le cabinet. 👉 [Lien à insérer]


    Conclusion

    Tes patients vont continuer à utiliser ChatGPT — c'est une tendance qu'on ne va pas inverser. Mais avec ces 5 points, tu as de quoi reprendre ta place dans la conversation et protéger concrètement leur parcours de soin.

    👉 Regarde la vidéo complète ici : Vidéo

    Si cet article t'a été utile, partage-le à un confrère — on est nombreux à naviguer dans ces eaux encore peu balisées.

    0 comments

    Sign upor login to leave a comment