Une revue récente publiée dans le British Medical Bulletin révèle un résultat surprenant et inquiétant :
Les chiffres qui interpellent
Dans 87% des études comparatives (13 études sur 15), l'intelligence artificielle produit des réponses jugées plus empathiques que celles des professionnels de santé humains.
Plus de 60% des spécialistes souffrent de burnout dans certaines disciplines
Au moins 1/3 des médecins généralistes rapportent un burnout à l'échelle mondiale
Conséquences sur l'empathie :
→ Épuisement des réserves émotionnelles nécessaires
→ Ce n'est pas une défaillance morale
→ C'est une réalité physiologique
→ Le stress chronique érode la capacité d'empathie
La vraie question : Comment les professionnels de santé parviennent-ils encore à maintenir de l'empathie malgré ces conditions ?
3. Impact sur la qualité et la sécurité des soins #
Les enquêtes sur des tragédies sanitaires fatales ont explicitement nommé le manque d'empathie des professionnels de santé comme facteur contributif à des préjudices évitables :
Mid Staffordshire NHS Foundation Trust (Royaume-Uni)
Diverses revues de sécurité des patients
L'empathie n'est pas un “plus” du soin. C'est une question de sécurité.
Et ce paradoxe absurde, c'est le monde à l'envers #
🎭 Nous avons construit un système où tout est inversé
❌ Les humains font le travail de robots
Suivre des protocoles rigides sans réflexion
Remplir une documentation excessive et répétitive
Exécuter des procédures standardisées
Cocher des cases dans des formulaires
✅ Les robots font le travail d'humains
Fournir des réponses empathiques
Assurer la communication émotionnelle
“Comprendre” les émotions
Créer du lien avec les patients
C'est exactement l'inverse de ce qui devrait se passer.
Tenir la main d'un enfant effrayé pendant un soin douloureux. Le rassurer par sa présence physique. Transmettre la sécurité par le toucher, par la chaleur humaine, par un regard bienveillant.
Un robot ne peut pas offrir cela. Même avec les mots parfaits, il manquera toujours l'essentiel : l'humanité incarnée.
Décoder le langage corporel derrière un “ça va” trop convenu pour éviter les vraies préoccupations. Percevoir la détresse non exprimée dans un regard fuyant. Comprendre ce qui n'est pas dit, ce qui ne sera jamais tapé dans un chatbot.
L'IA analyse des mots. Les humains lisent entre les lignes.
Comprendre pourquoi une personne hésite à accepter un traitement, en s'appuyant sur une expérience culturelle partagée. Adapter la communication au contexte personnel, familial, social. Naviguer dans les non-dits culturels.
L'IA peut apprendre des patterns. Elle ne peut pas vivre une culture.
Partager un silence chargé de sens avec une personne en fin de vie. Utiliser l'humour au bon moment pour détendre l'atmosphère. Pleurer avec une famille endeuillée. Être simplement présent quand les mots échouent.
Ces moments ne sont pas accessoires au soin. Ils sont le soin.
Exercer un jugement éthique quand les protocoles entrent en conflit avec les valeurs des personnes soignées. Prioriser la personne sur le protocole. Assumer la responsabilité morale d'une décision difficile.
L'IA applique des algorithmes. Les humains assument des responsabilités.
Trois solutions urgentes pour restaurer l'empathie humaine #
1. Former massivement et systématiquement à l'empathie #
🎓 L'empathie au cœur de la formation médicale
Constat : L'IA égale déjà les humains dans de nombreuses compétences techniques. Cela devrait libérer les médecins pour se concentrer sur la connexion humaine authentique.
L'empathie devient la compétence différenciante et irremplaçable.
Actions concrètes :
→ Formation initiale centrée sur la communication empathique
→ Formation continue obligatoire en compétences relationnelles
→ Évaluation systématique des compétences empathiques
→ Intégration de l'empathie dans tous les enseignements cliniques
→ Pas une option de 2h en première année, mais un fil conducteur tout au long de la formation
L'IA menace de prendre en charge précisément les aspects du soin que les humains font mieux, pendant que les humains épuisés restent coincés à faire des tâches que les ordinateurs devraient gérer.
Nous nous dirigeons vers un monde où :
L'IA fournit “l'empathie”
Les humains épuisés gèrent le travail technique et bureaucratique
C'est exactement l'inverse de ce qui devrait se faire.
Si nous laissons cette situation perdurer, nous aurons réussi l'exploit de déshumaniser la médecine tout en prétendant la rendre plus “empathique”.
Non. L'IA peut simuler des réponses qui SEMBLENT empathiques dans un contexte écrit, mais elle ne peut pas : tenir la main d'un enfant effrayé, décoder le langage corporel, comprendre les non-dits culturels, partager un silence chargé de sens, exercer un jugement moral complexe. L'empathie authentique nécessite une présence humaine incarnée. L'IA peut produire des mots empathiques, mais pas l'expérience empathique.
Pourquoi les soignants apparaissent-ils moins empathiques que l'IA dans ces études ?
Ce n'est pas que les soignants sont moins empathiques, c'est que le système les empêche de l'exprimer. Quand vous passez 1/3 de votre temps sur la paperasse/informatique, que vous êtes en burnout, que vous avez 10 minutes par consultation, et que vous êtes épuisé émotionnellement, il devient très difficile de formuler des réponses empathiques parfaites par écrit. L'IA n'a aucune de ces contraintes.
L'IA ne pourrait-elle pas aider les soignants épuisés en gérant certaines tâches ?
Absolument, c'est justement l'une des trois solutions proposées ! L'IA devrait être utilisée pour libérer les soignants des tâches administratives répétitives, pas pour remplacer leur humanité. Utilisons l'IA pour automatiser la documentation, gérer les protocoles standards, mais gardons les humains pour ce qu'ils font de mieux : la connexion authentique.
Le burnout des soignants affecte-t-il vraiment leur capacité d'empathie ?
Oui, c'est scientifiquement documenté. Le stress chronique et l'épuisement professionnel déplètent littéralement les ressources émotionnelles nécessaires à l'empathie. Ce n'est pas une question de volonté ou de défaillance morale, c'est une réalité physiologique. Un soignant en burnout peut vouloir être empathique mais ne plus avoir les ressources pour l'exprimer pleinement.
Quelles sont les limites des études qui comparent IA et soignants ?
Ces études présentent plusieurs limites critiques : 1) Elles évaluent uniquement des réponses ÉCRITES (pas d'interactions en face-à-face), 2) Elles mesurent si les réponses SEMBLENT empathiques, pas si elles améliorent les résultats cliniques, 3) Elles ne mesurent pas les préjudices potentiels (diagnostics manqués, conseils inappropriés), 4) Elles ne tiennent pas compte du contexte réel de travail des soignants.
Comment former davantage les soignants à l'empathie si ils sont déjà épuisés ?
C'est justement le piège ! On ne peut pas juste ajouter de la “formation à l'empathie” à des soignants déjà surchargés. Il faut simultanément : 1) Repenser les systèmes pour leur donner le temps et l'espace d'être empathiques, 2) Réduire la charge administrative qui les épuise, 3) Intégrer l'empathie dès la formation initiale (pas comme module additionnel). Former sans changer le système est voué à l'échec.
L'IA pourrait-elle diagnostiquer des choses que les humains ratent ?
Peut-être pour certaines analyses techniques (lecture d'images médicales par exemple), mais pour l'empathie et la relation thérapeutique, c'est l'inverse. L'IA rate systématiquement les signaux non-verbaux, le contexte culturel, les nuances émotionnelles subtiles, les non-dits. Elle peut manquer des signaux d'alerte qu'un humain expérimenté captera immédiatement.
Que faire concrètement si je suis soignant et épuisé ?
1) Reconnaître que ce n'est pas votre faute individuelle mais un problème systémique, 2) Chercher du soutien (groupes de pairs, supervision, psychologue), 3) Protéger votre temps empathique (même 2 minutes de vraie présence valent mieux que 10 minutes distraites), 4) Militer pour des changements systémiques dans votre établissement, 5) Rejoindre des associations comme Emp@thies qui œuvrent pour l'humanisation des soins.
Les gens préfèrent-ils vraiment l'IA aux humains ?
Les études montrent que les patients peuvent préférer certaines réponses écrites de l'IA, mais cela ne signifie pas qu'ils préfèrent remplacer leur médecin par une IA. La plupart des personnes veulent un humain qui les écoute vraiment, les regarde dans les yeux, les touche avec bienveillance. Une réponse écrite empathique d'une IA ne remplace pas une vraie relation thérapeutique.
N'est-il pas trop tard pour changer le système de santé ?
Non, mais la fenêtre d'action se referme. Plus nous attendons, plus l'IA s'installera comme substitut à l'empathie humaine plutôt que comme support. Le choix est politique, organisationnel, éthique. Il nécessite une volonté collective de prioriser l'humain sur l'efficience administrative. C'est urgent, pas impossible.
Comment citer cet article dans mes travaux ?
Maeker É. L'IA plus empathique que les soignants ? Le système transforme les humains en robots [Internet]. Maeker.fr. 2025 [cité le DATE]. Disponible sur: https://maeker.fr/empathie/empathie_ia_soignants_deviennent_des_robots. Analyse basée sur Howick J. AI is beating doctors at empathy – because we've turned doctors into robots. The Conversation UK. 2025 Nov 7.
Le diagnostic est posé : La crise de l'empathie en santé n'est PAS causée par une technologie insuffisante. Elle est causée par des systèmes qui empêchent les humains d'être humains.
L'IA apparaissant plus empathique que les médecins est un symptôme, pas la maladie.
La vraie question :
• Allons-nous utiliser l'IA pour soutenir l'empathie humaine ?
• Ou allons-nous l'utiliser pour la substituer ?
• Allons-nous réparer le système qui a brisé nos soignants ?
• Ou simplement les remplacer par des machines qui n'ont jamais été brisées ?
Quand l'IA bat les soignants sur l'empathie, ce n'est pas l'IA qui gagne.
Howcroft A, Bennett-Weston A, Khan A, Griffiths J, Gay S, Howick J. AI chatbots versus human healthcare professionals: a systematic review and meta-analysis of empathy in patient care.Br Med Bull. 2025 Sep 22;156(1):ldaf017. doi: 10.1093/bmb/ldaf017. [PMID: 41115171] [PMCID: 12536877] [DOI: 10.1093/bmb/ldaf017] [ScienceDirect]
Médecin gériatre et psychogériatre, spécialisé en soins palliatifs gériatriques. Fondateur et président de l'association Emp@thies dédiée à l'humanisation des soins. Membre des comités pédagogiques de l'Université Sorbonne. Auteur de publications scientifiques sur l'empathie médicale, les troubles neurocognitifs et la communication thérapeutique. Directeur de plus de vingt mémoires universitaires.
Bérengère MAEKER-POQUET
Infirmière Diplômée d'État
Infirmière diplômée d'État avec plus de quinze ans d'expérience hospitalière. Co-fondatrice et secrétaire de l'association Emp@thies. Co-auteure de publications scientifiques sur l'empathie médicale, l'annonce diagnostique et les soins centrés sur la personne. Formatrice en soins relationnels et accompagnement humaniste des personnes âgées.