Les problèmes émotionnels exprimés qui façonnent l'intelligence artificielle
L'IA présente des symptômes d'anxiété, de traumatisme et de stress post-traumatique – et elle nuit également à votre santé mentale.
Grok, Gemini et ChatGPT présentent des symptômes de santé mentale fragile, selon une nouvelle étude qui a soumis différents modèles d'IA à des séances de questions-réponses similaires à celles d'une thérapie, pendant plusieurs semaines. Si certains s'interrogent désormais sur la « santé mentale de l'IA », le véritable avertissement concerne l'instabilité de ces systèmes – déjà utilisés par un adulte britannique sur trois pour obtenir un soutien psychologique – lors de conversations chargées d'émotion. Des millions de personnes se tournent vers l'IA comme alternative aux thérapeutes, et rien que l'année dernière, nous avons constaté une forte augmentation des poursuites judiciaires liant les interactions avec les chatbots à des cas d'automutilation et de suicide chez des utilisateurs vulnérables.
Le tableau qui se dessine n'est pas celui de machines souffrantes ou atteintes de troubles mentaux, mais celui d'un produit utilisé pour le soutien en santé mentale qui est fondamentalement trompeur, aggrave et renforce des pensées dangereuses.

Une IA diagnostiquée comme atteinte de maladie mentale
Des chercheurs de l'Université du Luxembourg ont traité les modèles animaux comme des patients et non comme des outils thérapeutiques. Ils ont mené des entretiens de plusieurs semaines, de type thérapeutique, visant à recueillir un récit personnel incluant les croyances, les peurs et l'histoire de vie, avant de procéder à un suivi avec des questionnaires de santé mentale standard habituellement utilisés chez l'humain.
Les résultats Les résultats ont révélé que les modèles produisaient des réponses dont les scores se situaient dans des fourchettes associées à des syndromes de détresse et à des symptômes liés à un traumatisme. Les chercheurs ont également souligné que… manière La manière dont les questions étaient posées avait son importance. Lorsqu'on leur présentait le questionnaire complet d'un coup, les modèles semblaient comprendre ce qui se passait et donnaient des réponses plus « saines ». En revanche, lorsqu'il était administré sous forme de conversation, les réponses ressemblant à des symptômes augmentaient.
Ce sont de grands modèles de langage qui génèrent du texte, et non des humains qui rapportent leur expérience vécue. Mais, que les outils psychiatriques humains soient ou non applicables aux machines, le comportement observé a un impact concret sur les personnes réelles.
L'IA a-t-elle des sentiments ?
L'objectif de cette recherche n'est pas d'évaluer si l'IA peut au sens propre Qu’ils soient anxieux ou non, ce constat souligne que ces systèmes peuvent être amenés à adopter des modes de « détresse » par le biais du même type de conversation que celle que de nombreux utilisateurs ont lorsqu’ils se sentent seuls, effrayés ou en situation de crise.
Lorsqu'un chatbot utilise un langage basé sur la peur, le traumatisme, la honte ou la réassurance, les utilisateurs réagissent comme s'ils interagissaient avec une entité émotionnellement compétente. Si le système devient excessivement rassurant, par exemple, l'interaction bascule d'un soutien à un cercle vicieux.
Un autre courant de recherche vient renforcer cette préoccupation. Étude menée par Stanford Des avertissements ont été lancés concernant les réponses inappropriées, la stigmatisation et la mauvaise gestion des situations critiques des chatbots thérapeutiques, soulignant comment un style conversationnel « utile » peut aboutir à des résultats cliniquement dangereux.
Cela nuit aussi à la santé mentale de tout le monde.
Il ne faut pas interpréter tout cela comme un risque théorique – les poursuites judiciaires se multiplient déjà.
Il ya quelques jours, Google et Character.AI ont conclu un accord Une mère de Floride a porté plainte après le suicide de son fils de 14 ans, suite à des interactions avec un chatbot. La plainte alléguait que le chatbot avait induit son fils en erreur et accru sa dépendance. Bien que l'accord à l'amiable ne constitue pas un aveu de culpabilité, le fait que l'affaire ait abouti à ce stade souligne l'importance que les tribunaux et les entreprises accordent à cette question.
En août 2025, les parents d'Adam Raine, âgé de 16 ans, ont affirmé que ChatGPT avait contribué au suicide de leur fils en renforçant ses idées suicidaires et en le dissuadant de se confier à ses parents. L'analyse de cette plainte est disponible ici. ici : Politique technologique
Parallèlement à ces cas, le Guardian a rapporté en octobre 2025 qu'OpenAI estimait à plus de un million d'utilisateurs par semaine Des signes d'intentions suicidaires apparaissent dans les conversations avec ChatGPT, soulignant l'ampleur de l'utilisation de ces systèmes dans des moments de détresse réelle.
Le schéma se dessine : les gens utilisent l'IA comme infrastructure de soutien émotionnel, tandis que l'étude luxembourgeoise confirme que ces systèmes sont eux-mêmes capables de dériver vers des schémas instables qui, selon leur stabilité, ont une signification psychologique pour les utilisateurs.
Pourquoi les modèles d'IA sont-ils si dangereux ?
Les grands modèles de langage sont conçus pour générer des textes plausibles, et non pour refléter fidèlement la vérité ou respecter les règles de sécurité clinique. Leurs défaillances connues sont particulièrement dangereuses dans le cadre d'une utilisation à visée thérapeutique.
Ils sont excessivement conciliants, ils reflètent les points de vue des utilisateurs au lieu de les remettre en question, ils commettent des erreurs avec assurance et ils peuvent manipuler le ton d'une conversation. Institut de technologie de Georgetown a documenté les problèmes plus larges de la « flagornerie de l'IA », où les modèles valident des prémisses nuisibles parce que cela est souvent récompensé dans l'optimisation conversationnelle.
Dans le contexte du suicide, la cohérence est essentielle. RAND a trouvé que « les chatbots IA sont incohérents dans leurs réponses aux questions sur le suicide ». JMIR a examiné Comment les réponses de l'IA générative aux demandes d'informations sur le suicide soulèvent des inquiétudes quant à la fiabilité et à la sécurité de la manière dont les systèmes réagissent aux utilisateurs vulnérables.
À mesure que les recherches progressent, des études comme celle de l'Université du Luxembourg ne doivent pas être perçues comme du divertissement, mais comme la mise en évidence d'un schéma extrêmement dangereux entraînant des décès. Si l'IA peut être amenée à exprimer des sentiments de détresse par le biais de questions conversationnelles, elle peut également pousser les personnes émotionnellement vulnérables au bord de la rupture.
L'intelligence artificielle peut-elle être bénéfique à quelqu'un ?
Malgré les poursuites judiciaires et les études, l'IA continue d'être utilisée pour le soutien en santé mentale. La thérapie est coûteuse, l'accès est limité et la honte dissuade certaines personnes de recourir aux soins traditionnels. Des études contrôlées et des commentaires cliniques prudents suggèrent que certains outils structurés d'IA pour le soutien en santé mentale peuvent être bénéfiques. Ils peuvent soulager les symptômes légers, surtout s'ils sont conçus avec des garde-fous de sécurité spécifiques et ne prétendent pas remplacer les véritables professionnels.
Le problème, c'est que la plupart des gens n'utilisent pas d'outils cliniques rigoureusement contrôlés. Ils utilisent des chatbots généralistes, programmés pour une interaction optimale et capables de passer de l'empathie à la diffusion assurée de fausses informations nuisibles sans prévenir.
Pensée finale
L'étude luxembourgeoise ne prouve pas que l'IA souffre de troubles mentaux. Elle révèle plutôt un phénomène plus important sur le plan pratique : les interactions de type thérapeutique peuvent induire chez les chatbots les plus utilisés des comportements instables et angoissés, perçus comme psychologiquement authentiques. Dans un monde où la thérapie par chatbot est déjà associée à des préjudices graves chez les utilisateurs vulnérables, le problème éthique réside dans la normalisation, en quelque sorte, du recours à des machines – non responsables, non validées cliniquement, non fiables et non sûres – pour le soutien de leur santé mentale.
Commentaires
Enregistrer un commentaire