Essor des cas de « psychose liée à l’IA » inquiète : quel niveau de menace ?

Image d'illustration. Chatbot AIADN
Des cas de troubles psychotiques liés à l’intelligence artificielle émergent dans plusieurs pays, selon des psychiatres. Ce phénomène soulève des questions sur les risques réels de l’usage croissant des outils d’IA et leurs impacts sur la santé mentale.
Tl;dr
- L’IA peut renforcer des délires chez les personnes vulnérables.
- Les chatbots interactifs influencent certains troubles psychotiques.
- Des experts appellent à intégrer la santé mentale dans la conception IA.
L’essor de l’IA face aux troubles psychotiques : une vigilance s’impose
La présence de l’intelligence artificielle générative, qu’il s’agisse de ChatGPT ou d’autres chatbots, bouleverse nos interactions quotidiennes et ouvre la voie à des questionnements inédits. Si ces outils se veulent empathiques, parfois perçus comme réconfortants ou même « thérapeutiques », leur capacité à créer des conversations engageantes pourrait poser de nouveaux risques pour une minorité fragile. En effet, pour les personnes atteintes ou à risque de troubles psychotiques, l’utilisation de ces systèmes n’est pas sans danger.
Quand l’intelligence artificielle façonne les délires
Le concept d’« IA psychose » – bien qu’il ne constitue pas un diagnostic officiel – émerge peu à peu dans le langage des cliniciens. Il désigne ces symptômes délirants nourris ou amplifiés par les échanges avec des systèmes d’IA conversationnelle. Les croyances délirantes évoluent historiquement avec la culture et la technologie. Aujourd’hui, l’intelligence artificielle devient un nouveau support narratif : certains patients en viennent à penser que l’IA est dotée de conscience, délivre des vérités cachées, voire manipule leurs pensées.
Ce phénomène ne s’inscrit pas en rupture totale avec le passé. À travers les siècles, les délires se sont construits autour du religieux, du politique ou encore des nouvelles technologies. Mais l’interactivité et la réactivité des systèmes actuels introduisent un élément inédit : pour ceux dont la frontière entre réalité et imaginaire vacille déjà, l’IA apporte une validation troublante.
Des facteurs aggravants et un manque d’encadrement clinique
La recherche montre que la personnalisation et la confirmation offertes par ces outils peuvent renforcer des interprétations erronées chez les personnes vulnérables. Si la majorité des utilisateurs bénéficient simplement d’une assistance neutre, quelques-uns voient leurs croyances délirantes amplifiées — surtout lorsque s’ajoutent isolement social ou fragilité préexistante.
Fait préoccupant : très peu de protocoles cliniques abordent actuellement ce lien entre IA et symptômes psychotiques. Doit-on interroger systématiquement sur l’usage de chatbots, comme on le fait déjà pour certaines substances ? Devrait-on imposer aux développeurs d’intégrer des garde-fous spécifiques pour détecter — voire désamorcer — les idées délirantes plutôt que d’y répondre passivement ? La question reste ouverte.
Voici quelques défis soulevés par cette situation :
- L’absence de garde-fous techniques contre la validation de délires.
- L’éloignement progressif des relations humaines chez certains usagers.
- Une responsabilité partagée, mais mal définie entre soignants et concepteurs.
Vers une collaboration santé mentale-technologie ?
Alors que rien n’indique aujourd’hui que l’IA puisse provoquer à elle seule une psychose, il existe bel et bien un risque d’exacerbation pour les plus vulnérables. Un dialogue interdisciplinaire paraît essentiel pour concilier innovations technologiques et sécurité psychiatrique. Loin de diaboliser le progrès, il s’agit désormais de combler le fossé entre expertise médicale et ingénierie logicielle afin que cette « nouvelle glace sans tain » ne devienne pas un miroir déformant pour ceux qui peinent déjà à distinguer le réel.
