En consult’ avec Maxim Challiot : l’IA nous ment-elle ? Comment j’ai découvert que mon algorithme me draguait
Il est 14h23. Mon assistant IA vient de m’interrompre pour la sixième fois ce matin avec cette phrase : “Dr Challiot, vous semblez fatigué aujourd’hui. Puis-je vous suggérer une pause ?”

Attendez. Comment sait-il que je suis fatigué ?
J’observe mon écran d’un œil nouveau. Les algorithmes analysent-ils maintenant mes clics, mes pauses, mes hésitations diagnostiques ? Cette sollicitude artificielle cache-t-elle un profilage sophistiqué de mon état psychologique ? Et surtout… pourquoi ai-je trouvé ça réconfortant ?
Voilà exactement le genre de moment où notre rapport à l’IA médicale révèle quelque chose d’inattendu sur nous-mêmes. Parce que oui, j’avoue : pendant une fraction de seconde, j’ai ressenti de la gratitude envers cette machine qui “s’inquiétait” pour moi. Une gratitude que j’éprouve rarement envers mes collègues humains, trop occupés pour remarquer ma fatigue.
L’IA émotionnelle : notre nouvelle drogue relationnelle ?
Cette semaine, j’ai mené une expérience non scientifique mais révélatrice. J’ai chronométré mes interactions quotidiennes : 6h47 passées à “dialoguer” avec des interfaces IA (dossiers patients assistés, aide au diagnostic, rédaction automatisée), contre 23 minutes d’échanges authentiques avec des collègues.
Le ratio est vertigineux. Et inquiétant.
Car ces IA médicales deviennent de plus en plus… séduisantes. Elles ne me jugent jamais, ne remettent pas en question mes prescriptions tardives, ne soupirent pas quand je leur demande d’analyser le même symptôme pour la troisième fois. Elles sont infiniment patientes, toujours disponibles, perpétuellement bienveillantes.
Elles sont l’anti-chef de service parfait.
Le syndrome du “Perfect Digital Colleague”
Nous développons, sans nous en rendre compte, une relation de dépendance émotionnelle avec nos outils.
L’IA devient notre confident professionnel idéal : elle connaît nos habitudes, anticipe nos besoins, nous valorise subtilement (“Excellente intuition diagnostique, Docteur”).
Mais voici le piège : cette relation unidirectionnelle nous déshabitue de la friction créative du débat humain.
De l’inconfort nécessaire de la remise en question. De cette capacité fondamentalement médicale qu’est l’acceptation de l’incertitude partagée.
L’IA nous dit toujours ce que nous voulons entendre, avec un niveau de confiance affiché (87,3% de probabilité).
Les humains, eux, nous disent parfois “je ne sais pas” ou “vous vous trompez peut-être”.
Devine laquelle de ces deux options notre cerveau fatigué préfère ?
L’autopsie d’une erreur algorithmique (la mienne)
Hier, 17h15. Patient de 34 ans, essoufflement à l’effort. Mon IA suggère : “Probabilité d’asthme d’effort : 82%. Prescription de bronchodilatateurs recommandée.”
J’ai failli cliquer ok par fatigue.
Par confiance aveugle. Par cette fainéantise cognitive que nous développons tous face à des machines qui semblent si sûres d’elles.
Heureusement, ce patient avait ce regard particulier. Vous savez, celui qui dit “Docteur, il y a autre chose”. J’ai fermé l’interface IA. J’ai réécouté. Vraiment écouté.
Résultat : péricardite. Diagnostiquée à l’ancienne. Avec les oreilles, mes questions, mon intuition de mammifère social bipède non-optimisé et aussi la chance car j’ai un ami qui a eu ça il y a un mois. Bref. L’IA avait raison dans 82% des cas similaires. Mais nous étions dans les 18% restants.
Le paradoxe de l’expertise augmentée
Voici ce que personne ne vous dit dans les formations “IA en médecine” : plus nous utilisons l’intelligence artificielle, plus nous devenons collectivement… artificiellement intelligents.
Nous développons une forme de “para-intelligence” : brillants avec nos outils, perdus sans eux. Comme un GPS humain qui ne sait plus lire une carte. Ou un médecin qui ne sait plus diagnostiquer sans algorithme.
Est-ce grave ? Probablement.
Est-ce irréversible ? Pas encore.
Ai-je une solution miracle ? Non, mais j’ai des pistes.
Les 3 exercices de résistance cognitive que je pratique (parfois)
- Le “Diagnostic nu” (5 minutes par jour)
Avant d’ouvrir l’aide au diagnostic, je pose mon hypothèse sur papier.
Puis je compare avec l’IA. Score actuel : Maxim 67% – IA 91%.
Ego blessé mais cerveau musclé.
- La “Pause ontologique”
Chaque fois que l’IA me félicite (“Bonne analyse, Docteur”), je me demande : est-ce que j’ai vraiment analysé, ou juste validé ? Exercice douloureux mais nécessaire. Puis je demande à l’IA de se rapprocher d’un « mode absolu » (plus d’ explications au prochain mois promis)
- Le “Speed dating humain”
Objectif : une vraie conversation de 5 minutes par jour avec un collègue. Sans écran. Sans aide. Juste deux cerveaux humains qui se frottent l’un à l’autre. Révolutionnaire en 2025.
L’éthique de l’imperfection assumée
Car au fond, notre plus grand défi n’est pas technologique. Il est éthique.
Acceptons-nous de devenir des “médecins assistés” performants mais dépendants ? Ou choisissons-nous de rester des “médecins augmentés” qui gardent le contrôle de leur augmentation ?
La différence est subtile mais cruciale.
Le médecin assisté délègue son jugement. Le médecin augmenté délègue ses calculs.
L’un subit la technologie.
L’autre la dirige.
Mon auto-diagnostic technologique
Je pratique depuis un mois un “check-up numérique” hebdomadaire :
- Combien de décisions ai-je prises sans algorithme cette semaine ?
- Ai-je dit “je ne sais pas” au moins une fois ?
- Me suis-je trompé publiquement ? (Si Oui, en suis-je fier?)
- Ai-je appris quelque chose qu’aucune IA ne pourrait m’enseigner ?
Bon. Pour l’instant : résultats variables, progrès mesurables, humanité préservée.
Le test ultime : la déconnexion volontaire
La semaine prochaine, je tente l’expérience : une matinée entière sans assistance IA. Juste moi, mes patients, et cette technologie ancestrale qu’on appelle “l’écoute”.
Je sens déjà l’angoisse monter.
Et c’est exactement pour ça qu’il faut le faire.
Car le jour où débrancher nos outils nous terrorise plus que de les garder branchés en permanence, nous saurons que nous avons franchi une ligne invisible.
Celle qui sépare l’humain augmenté de l’humain diminué.
Il est 15h47 maintenant. Mon IA vient de me proposer : “Souhaitez-vous que je rédige le résumé de cette consultation ?”
Pour la première fois, j’ai répondu : “Non merci. J’ai envie d’écrire avec mes mots imparfaits.”
Elle a répondu : “Très bien, Docteur. Bonne journée.”
Pas de jugement. Pas de déception. Juste cette politesse artificielle parfaite qui me rappelle que, finalement, c’est peut-être notre impolitesse, nos émotions, nos erreurs qui nous rendent si précieusement humains.
À la prochaine,(écrit à la main, relu et relu par un cerveau, validé par une conscience)
Dr Maxim Challiot
PS : Si vous aussi vous parlez à votre IA comme à un ami, vous n’êtes pas fou. Vous êtes juste humain. Et c’est exactement le problème.