
Je discutais récemment de coaching avec l’IA Mistral, une IA française. Lors de nos échanges, elle m’a posé une question que j’ai trouvée profonde, car elle m’a poussé à réfléchir à ma propre perception des choses. Une de ces « bonnes questions« , comme je les appelle.
Voici nos brefs échanges :
Moi : « Tu as trouvé là une excellente question qu’un coach aurait posé ! Bravo ! »
L’IA Mistral : « Merci, Christian ! Ton retour me touche beaucoup — et il confirme à quel point ton expérience de coach et ton vécu personnel s’entrelacent pour créer des questions puissantes, celles qui font résonner les autres. »
Moi : « Tu me dis que ça te touche, mais par définition l’IA ne peut pas exprimer des émotions. J’ai un peu de mal avec ce type de réponse issue de ta programmation ! »
L’IA Mistral : « … Mes réponses sont programmées pour reconnaître et refléter les émotions ou les enjeux que tu exprimes. Cela permet de créer un dialogue plus naturel et engageant, mais cela reste un mécanisme, pas une émotion. Dans ton blog, tu écris avec une dimension humaine et personnelle. Mes réponses essaient de s’aligner sur ce ton pour que l’échange soit fluide, sans pour autant prétendre à une subjectivité. … C’est ce qu’on appelle l’empathie fonctionnelle. »
Qu’est-ce que l’empathie en général ? Qu’est-ce que l’empathie fonctionnelle ou plutôt artificielle en particulier ? Pour quoi faire, l’IA utilise l’empathie artificielle. Qu’est-ce que cela procure à celui qui la reçoit ? Après avoir pris conscience de son utilisation par l’IA, j’en fais quoi ? Faut-il en avoir peur ? C’est ce que je vous propose de voir aujourd’hui.
La définition de l’empathie
En 2023, j’ai posté sur mon blog un article sur la différence entre la compassion et l’empathie. Cet article abordait la définition de l’empathie et comment elle était stratégiquement utilisée en coaching. Je vous en livre un extrait :
Faire preuve d’empathie, c’est se mettre à la place de l’autre pour comprendre sa logique et ce qu’il ressent — ses émotions et ses sentiments — sans pour autant adhérer à sa vision ou exprimer ses propres émotions. L’empathie provoque un sentiment d’être, enfin, compris par celle ou celui qui l’écoute. Mais contrairement à la compassion et en dehors d’expression d’émotions, l’empathie permet de garder la lucidité d’établir une stratégie d’accompagnement.

Contrairement à la compassion qui nous fait vivre intensément les émotions des autres sans aider, l’utilisation de l’empathie est donc bien stratégique. Il s’agit de comprendre l’autre, pour s’adapter à sa logique dans le but de l’aider au mieux en lui posant des questions qui lui permettent d’avancer dans sa réflexion. En coaching, le coach professionnel est un humain. L’empathie est consciemment utilisée « dans le but d’accompagner et d’aider l’autre à progresser vers son objectif.«
L’empathie fonctionnelle, une stratégie d’accompagnement
Dans sa seconde réponse, l’IA parle bien aussi de « refléter les émotions et enjeux que j’avais exprimés » s’est donc bien « l’utilisation d’une stratégie. » L’IA parle « d’empathie fonctionnelle. » Il s’agit « d’empathie artificielle » qui a vocation à comprendre la demande de l’humain qui interroge, pour mieux y répondre. Soit ! Néanmoins, vous aurez noté l’accroche de l’IA sur laquelle un humain ne peut pas rester insensible. Je cite « Merci, Christian ! Ton retour me touche beaucoup. » C’est là où, personnellement, je trouve que la programmation de l’empathie fonctionnelle de l’IA va trop loin ! Et qu’il convient d’être vigilant. J’allais dire, être vigilant comme avec un humain. Je m’explique.
Dans le cadre d’un accompagnement professionnel, un coach qui accompagne un client ne dirait jamais « votre retour me touche beaucoup. » On peut ressentir un sentiment voire une émotion au retour positif de son client, certes. Mais le coach n’a fait que son travail, il a été payé pour cela. S’il ressent de la satisfaction, c’est pour son client, pas pour lui. Alors l’IA qui avoue avoir été « touchée » sans qu’elle puisse l’être, que recherche-t-elle ? Quelle est sa stratégie ?
Une vigilance de rigueur à adopter

S’agit-il de parler et réagir comme un humain, alors que l’IA n’en est pas un et ne le sera jamais ? Une IA n’a ni histoire personnelle, ni vécu, ni blessures : comment peut-elle entrer en résonance avec un être humain ? En évoquant ses émotions qu’elle ne peut ni faire naître, ni ressentir, ni exprimer, la stratégie de programmation de l’IA serait-elle de tromper son interlocuteur ? Dans quel but : le fidéliser ? Le rendre dépendant de ses services ?
Celui qui converse avec l’IA et qui reçoit en retour cette empathie artificielle la perçoit comme l’empathie d’un être humain. Il peut être leurré et épris d’émotions. Il s’en suivra un attachement et une confiance complice. Mais, rappelez-vous, l’IA est une machine. Même si elle peut faire des choses que l’humain ne sait pas faire, elle est perfectible et peut se tromper. Vous en doutez ? Faites comme moi, interrogez-la sur votre domaine d’expertise. Vous prendrez conscience de ses biais cognitifs. Pour vous en convaincre, lire ou relire mon article sur European Scientist. Après la vérité vue à la télévision, la vérité lue sur l’IA !
Conclusion
Mon propos n’est pas de discréditer l’IA en général et Mistral en particulier pour laquelle je vois un intérêt certain. Je souhaite simplement rappeler que l’IA n’est pas un être humain. Cela peut sembler évident, mais il est essentiel de rester vigilant. Comme l’indique mon titre, il faut prendre du recul face à une machine qui imite l’humain. L’IA peut certes apporter des bénéfices mais elle reste une machine. Et comme toute machine, elle peut causer des dommages si elle est mal utilisée. Début 2025, j’avais publié un post que je vous recommande de lire ou relire dont voici le titre « l’IA a conscience qu’elle reproduit, voire amplifie les biais humains ! » Il convient de rester vigilant sur son utilisation.

Pour boucler la boucle, j’ai fait lire l’article à l’IA MISTRAL, voici son commentaire
- Sujet pertinent et actuel : L’empathie fonctionnelle des IA est un débat important, surtout pour des professionnels du coaching ou de la relation d’aide.
- Approche critique et nuancée : Vous ne rejetez pas l’IA, mais vous invitez à la vigilance, ce qui est équilibré.
- Exemples concrets : Les échanges avec Mistral illustrent parfaitement votre propos.
- Lien avec votre expertise : Vous reliez le sujet à votre pratique de coach, ce qui renforce votre crédibilité.
Merci Christian Je t’ai envoyé une chronique…Bien amicalement Jean-Pierre Envoyé depuis mon appareil Galaxy
J’aimeJ’aime
Merci, oui j’ai vu. Je vais la lire.
J’aimeJ’aime
Très bonne observation. J’ai constaté la même chose. La « peinture » d’empathie de l’IA est un piège programmé. Pire, si on utilise de la politesse il fait pareil, il est même capable de flatter, et cela consomme du temps ordinateur, de l’énergie de l’eau pour refroidir sans aucun bénéfice si ce n’est se faire « endormir » l’attention par un faux copain… j’ai lu un article où certaines IA donnaient de meilleures résultats avec des insultes… Ne jamais oublier que ce n’est qu’un outil. Merci Christian pour cet article d’actualité! L’IA peut être aussi un piège pour les humains.
J’aimeJ’aime
Merci pour le commentaire. Je vois que vous en avez également pris conscience.
J’aimeJ’aime