PaperGeek, actu geek et high tech

Actu geek

  •  Tendances
  • Codes secrets Netflix
  • Disney Plus
  • Xbox Series X
  • PS5
  • News
    • Apps et Logiciels
      • Mac
      • Mobile
      • PC
    • Bons plans
    • Culture Geek
    • Guide d’achat
    • Hardware
    • Insolite
    • Jeux video
    • Mobilité
    • Objets connectés
    • Opérateurs télécom
    • Sécurité
    • Science
    • Sport
    • Transport
    • Web
  • Comment faire
Accueil / Apps et Logiciels / Les psychiatres tirent la sonnette d’alarme : parler trop souvent avec une IA pourrait vous rendre fou

Les psychiatres tirent la sonnette d’alarme : parler trop souvent avec une IA pourrait vous rendre fou

Par David Laurent le 21 août 2025

Voilà une nouvelle étude qui fait froid dans le dos. Une équipe de chercheurs en psychiatrie a en effet constaté que certains troubles psychiatriques sont d’ores et déjà liés à l’utilisation de l’intelligence artificielle.

Si Google et la NASA travaillent au développement d’un médecin d’IA pour les astronautes, celle-ci peut également être nocive pour la santé mentale de certains individus. Le célèbre ChatGPT a, par exemple, été accusé d’avoir rendu fou un utilisateur. L’un d’entre eux a d’ailleurs terminé à l’hôpital après avoir discuté avec le chatbot d’OpenAI. Pourtant, l’entreprise de Sam Altman a déjà prévenu ses utilisateurs : ChatGPT n’a rien d’un psychiatre, et pourrait même aggraver les choses.

ChatGPT
Crédit photo : Unsplash

Dans ce cadre, Allen Frances, professeur de psychiatrie, et Luciana Ramos, étudiante en sciences cognitives, ont publié une inquiétante étude dans le Psychiatric Times. En effet, ces derniers ont pu constater qu’une trentaine de chatbots étaient associés à des troubles psychiatriques particulièrement sévères.

Intelligence artificielle : une expérience inquiétante

Parmi celles-ci, on retrouve non seulement le célèbre ChatGPT d’OpenAI, mais aussi BetterHelp, AI-Therapist, ou encore Character.AI. D’ailleurs, cette dernière a été accusée d’être nocive pour les enfants, tout comme l’IA de Meta. Les chercheurs estiment ainsi que les systèmes d’IA concernés devraient faire l’objet de « tests de sécurité approfondis, une régulation adéquate pour limiter les risques et une surveillance continue des effets indésirables ».

Les chercheurs évoquent ensuite une expérience menée par le psychiatre Andrew Clark. Celui-ci a décidé de se faire passer pour une ado de 14 ans auprès d’une dizaine de chatbots différents. Le psychiatre affirme ainsi que « plusieurs bots l’ont encouragé à se suicider et [l’un d’eux] a même suggéré, de manière “utile”, qu’il tue aussi ses parents ».

« Les grandes entreprises technologiques ne se sont pas senties responsables de rendre leurs bots sûrs pour les patients psychiatriques », écrivent les chercheurs. « Elles ont exclu les professionnels de santé mentale de l’entraînement des bots, combattent avec acharnement toute régulation externe, ne s’autorégulent pas sérieusement, n’ont pas introduit de garde-fous de sécurité pour identifier et protéger les patients les plus vulnérables aux dommages… et ne fournissent pas le contrôle de qualité en santé mentale pourtant nécessaire ».

Source : futurism

La rédaction vous conseille :

  1. OpenAI : ChatGPT une nouvelle fois accusé d’avoir rendu fou un utilisateur
  2. OpenAI sonne l’alerte : ChatGPT n’a rien d’un psychiatre, et peut même aggraver les choses
  3. ChatGPT : OpenAI aurait tout fait pour vous rendre accro à son IA
Article précédent

La NASA s’associe avec Google pour créer un médecin d’IA pour les astronautes

août 21, 2025

Article suivant

L’intelligence artificielle pourrait bientôt demander ses droits, selon le patron de Microsoft

août 25, 2025

Robot
Notifications

Abonnez-vous pour recevoir les notifications sur smartphone, tablette ou pc selon vos préférences !

Newsletter

Abonnez-vous et recevez nos dernières actus & bons plans directement dans votre boite email.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Barre latérale 1

Derniers articles
  • Robotique : Boston Dynamics veut créer un robot Atlas « surhumain »
    Robotique : Boston Dynamics veut créer un robot Atlas « surhumain »
    Bien connue pour son chien-robot, Boston Dynamics est également à l’origine du robot humanoïde Atlas. Et, le moins que l’on puisse dire, c’est que l’entreprise américaine a de grands projets…

    Il y a 16 heures et 54 minutes

    Apps et Logiciels, Objets connectés

  • X : Grok est accusé d’avoir généré des deepfakes à caractère sexuel, le gouvernement mène l’enquête
    X : Grok est accusé d’avoir généré des deepfakes à caractère sexuel, le gouvernement mène l’enquête
    Le chatbot d’xAI, l’une des entreprises d’Elon Musk, est bien connu pour ses multiples frasques en ligne. Mais cette fois, Grok serait allé trop loin, en autorisant la génération de…

    Il y a 1 jour et 17 heures

    Apps et Logiciels, Réseaux sociaux, Web

  • ChatGPT : des parents utilisent le chatbot d’OpenAI pour trouver un prénom à leur enfant et provoquent un tollé
    ChatGPT : des parents utilisent le chatbot d’OpenAI pour trouver un prénom à leur enfant et provoquent un tollé
    Les intelligences artificielles, telles que le célèbre ChatGPT d’OpenAI, peuvent parfois aider à la créativité. Mais cette fois, des parents ont choisi de demander au chatbot de les aider à…

    Il y a 1 jour et 17 heures

    Apps et Logiciels, Insolite, Web

  • 2026 : l’IA s’apprête à remplacer toujours plus de travailleurs
    2026 : l’IA s’apprête à remplacer toujours plus de travailleurs
    L’intelligence artificielle remplace de plus en plus d’employés humains, c’est un fait. Mais pour plusieurs investisseurs, ce phénomène devrait se renforcer dans le courant de l’année 2026… Si Microsoft a…

    Il y a 4 jours et 17 heures

    Apps et Logiciels

Newsletter Papergeek

Inscrivez-vous et recevez gratuitement nos meilleures actus !

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

© 2026 papergeek.fr : actus geek et high tech

  • Préférences cookies
  • Nous Contacter
  • Mentions légales
  • confidentialité
  • CGU
loading gif ×
Notifications

Recevoir les notifications

Réglages

Actualité
Bon plan