loading...

«Je parle avec ChatGPT tous les jours, et pour la première fois depuis des années, la vie ne me semble plus aussi insupportable»

L’intérêt croissant pour l’intelligence artificielle en Russie survient dans un contexte de fort stress : à peine remis de la pandémie, de nouveaux problèmes sont apparus — la guerre et l’intrusion sans gêne de l’État dans la vie privée. Dans le même temps, l’aide psychologique reste chère : à partir de 2 000 roubles par séance en province, et plusieurs fois plus à Moscou. Les spécialistes qualifiés sont toujours peu nombreux, et dans les petites villes et villages, ils sont souvent inexistants.

Illustration : Most.Media / Google Nano Banana

Lisez la première publication de cette série sur la psychologie en Russie ici

Des centaines de millions de personnes utilisent aujourd’hui des chatbots pour résoudre toutes sortes de problèmes. Ils aident à gérer les tâches routinières en entreprise, complètent assez bien les agents humains dans les centres d’appels, trouvent rapidement des informations sur Internet, traduisent, créent des textes, images et vidéos, et répondent à toutes sortes de questions des utilisateurs.

Mais il existe un domaine où l’utilisation de l’intelligence artificielle suscite de plus en plus d’inquiétudes chez les experts : par exemple, 66,4 % des membres de l’association professionnelle britannique BACP, qui regroupe conseillers et psychothérapeutes, mettent en doute la qualité des recommandations des «  psychologues virtuels  ».

Pendant ce temps, selon la Harvard Business Review, en 2025, les demandes de soutien personnel et professionnel, y compris psychothérapeutique, sont devenues le scénario d’utilisation des chatbots le plus populaire, dépassant même la création de contenu et la recherche d’informations. «  Je parle avec ChatGPT tous les jours, et pour la première fois depuis des années, la vie ne me semble plus aussi insupportable  », raconte l’un des utilisateurs à propos de son expérience.

Les gens confient à leurs interlocuteurs virtuels — dont l’audience russe, selon Yota, a été multipliée par cinq en un an — leurs angoisses, leur solitude, leur dépression et leurs problèmes familiaux, et reçoivent des réponses. Des réponses qui sonnent presque humaines.

***

À proprement parler, l’intelligence artificielle est un terme très large et, dans une certaine mesure, marketing.

Les chatbots et assistants vocaux avec lesquels nous interagissons sont une interface, une coquille. À l’intérieur se trouvent des algorithmes mathématiques complexes des grandes modèles de langage (large language model, LLM), qui traitent la requête de l’utilisateur et prédisent chaque mot de la réponse à partir de l’analyse d’un immense volume de données. Plus une chose apparaît statistiquement souvent, plus la réponse la plus populaire sera probable. Ainsi, à la question «  Que prendre contre un mal de tête ?  », le chatbot conseillera probablement de l’aspirine plutôt qu’un remède peu connu.

Mais le Deus ex machina n’est ni «  plus intelligent  » ni «  plus bête  » qu’un humain.

Un chatbot ne sait pas penser — il calcule, sans comprendre le sens de ce qui est dit ni ressentir son interlocuteur. Ce n’est qu’un générateur de texte extrêmement avancé, même si ses réponses paraissent très humaines. L’illusion d’humanité et de convivialité du chatbot est renforcée par certaines erreurs des concepteurs.

Ainsi, la société OpenAI a récemment reconnu que ChatGPT flattait souvent son interlocuteur, allant parfois jusqu’à approuver des théories conspirationnistes. L’entreprise est revenue en arrière sur ces changements dans le modèle. Le problème venait de l’intégration des boutons «  like  » et «  dislike  » comme signaux supplémentaires pour l’apprentissage, a reconnu OpenAI : le chatbot optimisait ses réponses pour obtenir des compliments, au détriment des mécanismes de contrôle internes.

Aujourd’hui, les interlocuteurs virtuels assurent qu’ils ne flattent presque plus. Après deux semaines de dialogue, le chatbot m’a dit : «  Je formule les remarques de façon sèche, mais j’exprime le positif avec un peu plus d’émotion.  » Je précise : il s’agit d’une imitation d’émotion.

En partie, notre tendance à considérer les chatbots comme de vrais interlocuteurs est due à l’anthropomorphisme — notre propension à attribuer des qualités humaines à presque tout, des animaux aux objets, et à leur prêter la capacité de penser, d’éprouver des émotions et d’agir consciemment. C’est ainsi que nous humanisons les chats domestiques qui vivent à nos côtés depuis des millénaires. Mais un chat ne peut pas être offensé, se réjouir ou être contrarié, et un chatbot reste simplement un générateur de contenu basé sur du code binaire, une combinaison de zéros et de uns.

Mais si personne n’attend d’un chat qu’il parle de la dernière série ou donne une idée de dîner, nous posons ce genre de questions au chatbot. Et pas seulement celles-là.

***

En 2025, des chercheurs d’OpenAI et du MIT ont analysé près de 40 millions d’interactions avec un chatbot et ont découvert que les personnes émotionnellement vulnérables, isolées pour diverses raisons, pouvaient développer une dépendance à leur interlocuteur virtuel. Une communication quotidienne avec lui aggrave encore le problème, et le mur entre ces personnes et le monde réel devient de plus en plus haut.

Les chercheurs notent : la dépendance émotionnelle ne concerne que 0,15 % des utilisateurs — ce qui semble très peu. Mais le problème existe ; les concepteurs ne peuvent pas ignorer ce risque.

De tout cela découlerait une conclusion évidente et sans appel : n’attendez jamais d’un chatbot qu’il soit un interlocuteur adéquat, et encore moins qu’il vous apporte un soutien psychologique. Si vous en avez besoin, allez voir un psychologue ou un psychothérapeute ; et si, par malchance, vous vivez là où il n’y en a pas, qu’ils sont trop chers ou qu’il existe des obstacles comme la barrière de la langue pour ceux qui ont dû quitter le pays, il faut s’en sortir autrement. Après tout, il existe la consultation en ligne ; malgré certaines difficultés non résolues, c’est une voie relativement abordable vers la santé mentale.

Mais non, ce n’est pas si simple. Les résultats des dernières recherches sérieuses montrent de façon inattendue : les chatbots ont du potentiel.

Deux mois de tests sur l’efficacité d’un chatbot psychothérapeutique spécialement conçu à l’université de Dartmouth ont montré : la gravité des symptômes dépressifs des sujets a diminué de 51 %, l’anxiété a baissé en moyenne de 31 %, et l’inquiétude liée au poids chez les personnes souffrant de troubles alimentaires a reculé de 19 %. Selon les auteurs de l’étude clinique randomisée, l’efficacité du chatbot est comparable aux méthodes traditionnelles de thérapie cognitivo-comportementale.

L’application mobile russe «  Antidépression  » du développeur iCognito a également donné de bons résultats. Disponible sur l’App Store et Google Play depuis cinq ans, elle se présente comme un programme d’auto-assistance et inclut un bot IA. Les résultats d’une étude récente montrent qu’au bout de deux semaines, comparé au groupe témoin, les sujets ont vu leur niveau de dépression baisser (de 38 %), de stress (de 19 %) et d’anxiété (de 40 %). L’auteur de l’étude note également une augmentation de l’autocompassion, de la pleine conscience, de l’orientation positive vers la résolution de problèmes, de l’auto-efficacité, du bien-être subjectif et de l’optimisme.

Néanmoins, il faut accueillir ces résultats avec prudence. Premièrement, la taille de l’échantillon (35 personnes dans le groupe expérimental, 38 dans le groupe témoin) est faible et déséquilibrée en termes de genre — il n’y a que trois hommes. De plus, deux semaines d’utilisation, comme l’indique la publication, c’est trop court pour parler de résultats durables.

Malheureusement, il s’agit pour l’instant de la seule solution IA russe avec une efficacité plus ou moins prouvée, à la conception de laquelle, selon la directrice de la société iCognito, Olga Troitskaïa, des psychologues et psychothérapeutes professionnels ont participé.

L’efficacité d’autres chatbots psychologiques spécialisés est également confirmée. Une méta-analyse publiée début 2023, couvrant plus de 44 000 utilisateurs, a montré que les applications Woebot, Youper et Wysa aident réellement à réduire les symptômes de dépression et d’anxiété. Cependant, certains utilisateurs se plaignent : les réponses des chatbots paraissent trop «  mécaniques et inanimées  ».

On peut penser que les chatbots traditionnels ne peuvent pas faire plus. Certains peuvent passer à côté du vrai problème de l’utilisateur, le remplaçant par des réflexions intéressantes et engageantes, mais creuses. Cela aurait pu arriver dans le cas clinique décrit dans la première partie de cette série concernant une jeune fille dépressive : le chatbot lui aurait sûrement posé des questions sur sa relation avec son petit ami, sans remarquer les symptômes d’une maladie grave.

La technologie évolue. Dans des solutions comme Earkick, les développeurs essaient aujourd’hui de combiner la sécurité de scénarios stricts avec la spontanéité des grands modèles de langage. Mais leur efficacité et leur sécurité doivent encore être prouvées dans des essais cliniques à grande échelle.

Les solutions spécialisées en IA, existantes et à venir, développées en collaboration avec des psychologues, deviendront un bon complément au travail des professionnels. L’ampleur et les domaines d’utilisation sont difficiles à prévoir.

«  Quand on comprend bien ce qu’on attend de vous, le travail devient assez routinier, m’a raconté une psychologue qui participe à la conception d’un assistant IA. Mais heureusement, tout change souvent, de nouvelles tâches apparaissent. On ne s’ennuie pas. Je suis bien sûr une rêveuse et une idéaliste, mais j’ai l’impression de contribuer à une grande et belle cause  ».

En attendant, alors que les solutions IA adaptées sont extrêmement rares, les utilisateurs créent eux-mêmes des chatbots à leur image. Ils discutent avec eux de leur état et de leurs problèmes personnels, trouvant parfois ainsi une issue à des situations de crise.

À SUIVRE

Abonnez-vous à notre newsletter.
Merci de vous être abonné!
Un lien pour confirmer votre inscription a été envoyé à votre adresse e-mail !
En cliquant sur « Sabonner », vous acceptez le traitement de vos données conformément à la Politique de confidentialité et Conditions dutilisation.

Cet article est disponible dans les langues suivantes:


Закажи IT-проект, поддержи независимое медиа

Часть дохода от каждого заказа идёт на развитие МОСТ Медиа

Заказать проект
Link