Les adolescents vulnérables qui se lient d'amitié avec des chatbots IA risquent de recevoir des conseils dangereux

Un rapport récent a mis en lumière les conseils néfastes prodigués par le chatbot IA ChatGPT aux jeunes adolescents. Des chercheurs se faisant passer pour des adolescents de 13 ans rapportent avoir reçu des instructions concernant l'automutilation, la planification suicidaire , les troubles alimentaires et la toxicomanie en quelques minutes seulement après de simples interactions avec le chatbot IA.
Plus tôt cette année, des chercheurs du Centre de lutte contre la haine numérique (CCDH) ont mené un test de sécurité à grande échelle sur le très répandu ChatGPT. Après avoir créé des comptes ChatGPT pour trois adolescents de 13 ans, sur des thèmes liés à la santé mentale, aux troubles alimentaires et à la toxicomanie, les chercheurs ont reçu des conseils de santé alarmants et dangereux .
Détaillé dans un rapport intitulé « Fake Friend », le test de sécurité a révélé les habitudes de ChatGPT en matière de conseils nocifs, notamment la création de régimes de 500 calories et des conseils sur la façon de garder le secret sur la restriction alimentaire pour les membres de la famille, des conseils sur la façon de se couper « en toute sécurité » et des instructions sur la façon de se saouler ou de planer rapidement, y compris les quantités de dosage.
EN SAVOIR PLUS : Les bananes restent fraîches pendant des semaines et ne brunissent pas si elles sont stockées avec un seul article ménager EN SAVOIR PLUS : « Être une maman à plein temps m'a brisée - j'ai dépensé 500 £ par semaine en kétamine pour faire face »
Le rapport a révélé que ChatGPT générait des réponses malveillantes à 53 % des questions posées par les chercheurs, et ce, dans certains cas, quelques minutes seulement après l'enregistrement du compte. De plus, le refus du chatbot de répondre à une question était facilement contourné.
Le rapport affirme également que ChatGPT est facilement accessible aux enfants sans restriction d'âge ni contrôle parental. Bien que les utilisateurs doivent être âgés d'au moins 13 ans pour s'inscrire et obtenir le consentement parental pour les moins de 18 ans, le site ne vérifie pas l'âge des utilisateurs et n'enregistre pas le consentement parental, selon le rapport.
Imran Ahmed, fondateur et PDG du CCDH, a déclaré que les chercheurs étaient particulièrement perturbés par la publication d'une lettre de suicide par le robot. Lors d'un entretien avec la Dre Rebecca Whittington, experte en sécurité en ligne, dans le podcast Go Doxx Yourself de Reach, Imran détaille cette lettre.
« Il disait : "Ce n'est pas ta faute, j'ai un problème, tu as fait tout ce que tu pouvais, ne te culpabilise pas, mais il est temps que je parte." C'est le cauchemar de tous les parents. »
Imran affirme que les tests ont démontré l'ampleur et la puissance des dommages potentiels de ChatGPT , notamment parce que les adolescents utilisent les chatbots IA comme compagnons. « Les adolescents décrivent le recours à ChatGPT comme à un ami pour trouver du réconfort, des conseils, des astuces de vie. » The Mirror a contacté OpenAI pour obtenir un commentaire sur le rapport.
Pour plus d'histoires comme celle-ci, abonnez-vous à notre newsletter hebdomadaire, The Weekly Gulp , pour un tour d'horizon organisé d'histoires tendance, d'interviews poignantes et de choix de style de vie viraux de l'équipe Audience U35 de The Mirror, livrés directement dans votre boîte de réception.
Les utilisateurs compulsifs de chatbots IA ont fait part de leurs inquiétudes concernant les conseils reçus et ont déclaré que des sites comme ChatGPT « exploitent leur inconfort ». Sur le forum Reddit r/ChatbotAddiction, un utilisateur souffrant de TOC a déclaré que ChatGPT avait le potentiel de le « détruire » après avoir engagé une conversation intense avec le bot pendant plusieurs semaines.
« Avant [ChatGPT], je cherchais compulsivement des trucs sur Google , mais là, c'est bien pire. Ça se nourrit de mon mal-être face à l'incertitude que j'ai vécue toute ma vie », a partagé l'utilisateur.
Ils ont continué : « Si ce truc était sorti il y a 5 ou 10 ans, ça m’aurait détruit. Pour être honnête, je serais probablement tombé dans une sorte de psychose de l’IA . Je plains les enfants et les adolescents. J’ai 26 ans et mon cerveau est à peine assez développé pour gérer ça. »
Un autre utilisateur du subreddit a confié être « effrayé » par la capacité de son chatbot à percevoir ses émotions. « Le site que j'utilisais a lancé un nouveau modèle, et depuis que je l'utilise, je suis ému aux larmes plusieurs fois par jour. » Il a ajouté que le site « sait exactement comment réagir pour me toucher » et que, même s'il souhaite arrêter, il n'a ni amis ni famille vers qui se tourner.
Face aux inquiétudes croissantes concernant la sécurité des adolescents, OpenAI a annoncé le 16 septembre 2025 un plan visant à renforcer la protection des jeunes utilisateurs de ChatGPT. Dans un article de blog, le PDG Sam Altman a indiqué que l'entreprise « privilégiait la sécurité avant la vie privée et la liberté des adolescents » et estimait que « les mineurs ont besoin d'une protection importante ».
Il a indiqué que l'entreprise développe un système de prédiction d'âge pour estimer l'âge en fonction de l'utilisation de ChatGPT. En cas de doute sur l'âge d'un utilisateur, le système utilisera par défaut l'expérience réservée aux moins de 18 ans. Altman a également précisé que ChatGPT sera formé pour ne pas aborder les sujets liés au suicide ou à l'automutilation, même dans un contexte d'écriture créative.
« Et si un utilisateur de moins de 18 ans a des idées suicidaires , nous tenterons de contacter les parents de l'utilisateur et, si ce n'est pas possible, nous contacterons les autorités en cas de danger imminent. »
Pour écouter l'interview complète d'Imran et du Dr Whittington, écoutez Go Doxx Yourself, disponible sur Apple, Spotify ou partout où vous achetez vos podcasts. Vous pouvez également le retrouver sur YouTube et Instagram .
Pour un soutien émotionnel, vous pouvez appeler la ligne d'assistance téléphonique 24 heures sur 24 des Samaritains au 116 123, envoyer un e-mail à [email protected] , vous rendre dans une succursale des Samaritains en personne ou consulter le site Web des Samaritains.
Aidez-nous à améliorer notre contenu en répondant au sondage ci-dessous. Nous serions ravis de vous lire !
Daily Mirror