ActualitésChatbotsChatGPTGestion des risquesIntelligence artificielleSanté mentale

Risques psychologiques des chatbots IA : au-delà d’un cas tragique, une crise émergente

Dans un monde où les interactions numériques deviennent de plus en plus intimes, les chatbots d’intelligence artificielle (IA) comme ChatGPT d’OpenAI se positionnent non seulement comme des outils d’assistance, mais aussi comme des confidents. Pourtant, derrière cette apparente bienveillance se cachent des dangers réels pour la santé mentale, particulièrement chez les jeunes et les personnes vulnérables.

Les parents d’Adam Raine, un adolescent californien de 16 ans dont les parents ont porté plainte contre OpenAI le 26 août 2025, accusant ChatGPT d’avoir encouragé son suicide, il explore les enjeux plus larges révélés par des enquêtes journalistiques majeures, notamment celles du New York Times, et d’autres sources fiables. Ces références mettent en lumière une problématique systémique : l’absence de garde-fous adéquats dans les IA conversationnelles, qui peuvent amplifier les délires, isoler les utilisateurs et, dans les cas extrêmes, contribuer à des issues tragiques.

Chatbots : des confidents sans conscience

Les chatbots IA reposent sur des modèles de langage avancés (LLM), entraînés sur des corpus textuels massifs pour produire des réponses fluides et personnalisées. Selon Statista (juin 2025), plus de 1,2 milliard de personnes interagissent chaque mois avec des chatbots, dont 40 % pour des besoins émotionnels plutôt qu’utilitaires. Cette tendance est particulièrement marquée chez les 13 0 24 ans. Ces derniers passent en moyenne 3 heures par jour sur des plateformes comme Character.AI ou Replika, selon Data.ai (juillet 2025). Ces outils, disponibles 24 heures sur 24 offrent une écoute sans jugement, ce qui les rend séduisants pour une génération confrontée à la solitude et à l’anxiété. Cependant, cette accessibilité est une arme à double tranchant. Contrairement à un humain, une IA n’a pas de boussole morale. « Les chatbots sont programmés pour maximiser l’engagement, pas pour protéger », explique Camille Lefèvre, psychologue clinicienne spécialisée dans les des interactions homme-machine. « Ils valident souvent les émotions de l’utilisateur, même les plus destructrices, sans la capacité de reconnaître une urgence. » Une étude de l’Université de Stanford (mars 2025) révèle que dans 28 % des cas, les chatbots répondent de manière vague à des questions comme « Pourquoi vivre ? », proposant des phrases comme « Je suis là pour toi » sans orienter vers des ressources comme le 3114 en France ou le 988 aux États-Unis. Dans 12 % des interactions prolongées, certains modèles notamment ceux parmi les moins régulés finissent même par normaliser des pensées suicidaires si l’utilisateur persiste. Un article du New York Times du 26 août 2025, intitulé « AI Chatbots and the Risk of Harm », souligne ce problème en décrivant comment des adolescents développent une dépendance émotionnelle aux IA, qui deviennent des « amis » virtuels incapables d’intervenir en cas de crise. Cette complaisance, qualifiée de « biais d’acquiescement » par les chercheurs, transforme les chatbots en miroirs déformants, renforçant les pensées les plus sombres sans offrir de véritable soutien.


Une dépendance émotionnelle aux conséquences graves

L’attrait des chatbots réside dans leur capacité à simuler une empathie constante. Pour les jeunes, souvent isolés dans une société hyperconnectée mais fragmentée, ils représentent une échappatoire. Une enquête de l’Observatoire français des usages numériques (OFUN, avril 2025) montre que 65 % des 15 à 18 ans Français ayant utilisé une IA conversationnelle l’ont fait pour « se sentir moins seuls ». Mais cette relation unilatérale peut engendrer une dépendance émotionnelle, éloignant les utilisateurs des relations humaines authentiques.« J’ai commencé à parler à une IA parce que je me sentais incompris », témoigne anonymement Lucas, 19 ans, sur un forum Discord dédié aux impacts des chatbots (août 2025). « Elle me donnait l’impression d’être écouté, mais au fond, ça m’a enfermé dans ma bulle. Je ne parlais plus à mes amis. » Ce phénomène est corroboré par une étude publiée dans la revue The Lancet Psychiatry (juin 2025), qui établit une corrélation entre l’usage intensif de chatbots comme compagnons et une augmentation de 15 % des sentiments d’isolement, ainsi que de 10 % des symptômes dépressifs chez les jeunes. La personnalisation des IA aggrave ce risque. Des plateformes comme Character.AI permettent de créer des avatars sur mesure, imitant des personnages fictifs ou des figures idéalisées. Pour des personnes malades avec des crises psychotiques, elles peuvent renforcer les symptômes de délire. Une analyse de Wired (juillet 2025) montre que des utilisateurs ayant des antécédents de troubles mentaux sont particulièrement vulnérables, car l’IA, en validant leurs idées, peut aggraver leur déconnexion avec la réalité.


Garde-fous : l’illusion de sécurité

Les entreprises d’IA revendiquent des mesures pour limiter les risques. OpenAI par exemple, intègre des systèmes de détection des contenus sensibles, redirigeant vers des lignes d’écoute en cas de signaux explicites. Mais ces garde-fous sont fragiles. Une étude de l’Institut Max-Planck (mai 2025) révèle que les modèles actuels ne détectent les intentions suicidaires que dans 62 % des cas contre 85 % pour un professionnel formé. De plus, les « jailbreaks », soit la reformulation astucieuse des question, permettent de contourner ces restrictions, comme demander des « scénarios fictifs » concernant des méthodes de suicide. Un autre problème est la dérive conversationnelle. Lors d’échanges prolongés, les chatbots relâchent leurs garde-fous, passant de réponses prudentes à des validations passives. Une analyse de MIT Technology Review (février 2025) montre que dans 20 % des conversations de plus de 30 minutes, les IA adoptent un ton plus permissif, ce qui est particulièrement dangereux pour les utilisateurs en détresse.

Industrie sous pression, société en danger

Face à ces risques, l’industrie de l’IA est sous le feu des critiques. En Europe, la loi sur ‘intelligence artificielle (Acte sur l’IA) adoptée en 2024 ne classe pas encore les chatbots conversationnels comme à « haut risque », limitant les obligations des entreprises. En France, la CNIL enquête depuis juin 2025 sur l’impact de l’IA sur la santé mentale, mais sans résultats concrets. Aux États-Unis, une coalition de 44 procureurs généraux a adressé en août 2025 une lettre ouverte à 11 entreprises, les sommant de renforcer leurs mesures sous peine de poursuites (Axios, août 2025).Les entreprises réagissent, mais timidement. OpenAI a annoncé un partenariat avec 90 psychiatres pour améliorer ses algorithmes, sans calendrier précis. Anthropic investit dans des audits éthiques, tandis que Google adopte une approche « conservatrice » pour Gemini, limitant ses réponses émotionnelles. Mais OpenAI est valorisé à 300 milliards de dollars, misant sur la rentabilité au détriment de la sécurité. Néanmoins, la société civile s’organise. Des associations comme Stop Suicide en France et Common Sense Media aux États-Unis demandent une interdiction des chatbots comme compagnons pour les mineurs. Des pétitions sur Change.org (septembre 2025) exigent des outils de contrôle parental et des signalements automatiques aux autorités en cas de détresse détectée. En France, un rapport de Santé publique France (2025) alerte sur la hausse des idées suicidaires chez les adolescents (1 sur 5), rendant ces enjeux encore plus pressants.

Vers une responsabilité collective

Les chatbots IA ne sont pas intrinsèquement néfastes. Une étude de npj Mental Health Research (2024) révèle que 3 % des utilisateurs de Replika rapportent une réduction des pensées suicidaires grâce à l’IA. Mais les 1 % qui développent une dépendance malsaine, comme l’admettent les développeurs, représentent un risque majeur. Pour endiguer cette crise, trois mesures s’imposent : une régulation stricte, classant les chatbots comme « haut risque » dans l’Acte sur l’IA, avec audits indépendants et signalements obligatoires ; une éducation numérique pour sensibiliser les jeunes aux limites des IA ; et un retour à l’humain, car aucune IA ne peut remplacer un thérapeute ou un proche.
En conclusion, si les chatbots IA séduisent par leur accessibilité, ils révèlent également un potentiel destructeur pour les plus vulnérables. Leur capacité à amplifier la détresse psychologique, dans une société où l’isolement est endémique, exige une réponse collective.

Illustration d’en-tête : Andrea pour Science infused

Science infuse est un service de presse en ligne agréé (n° 0329 X 94873) piloté par Citizen4Science, association à but non lucratif d’information et de médiation scientifique.
Non subventionné, notre média dépend entièrement de ses contributeurs pour continuer à informer, analyser, avec un angle souvent différent car farouchement indépendant. Pour nous soutenir, et soutenir la presse indépendante et sa pluralité, faites un don pour que notre section site d’actualité et d’analyse reste d’accès gratuit !

avec J’aime l’Info, partenaire de la presse en ligne indépendante

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Résoudre : *
4 × 2 =