Les psychiatres tirent la sonnette d’alarme : parler trop souvent avec une IA pourrait vous rendre fou

Voilà une nouvelle étude qui fait froid dans le dos. Une équipe de chercheurs en psychiatrie a en effet constaté que certains troubles psychiatriques sont d’ores et déjà liés à l’utilisation de l’intelligence artificielle.

Si Google et la NASA travaillent au développement d’un médecin d’IA pour les astronautes, celle-ci peut également être nocive pour la santé mentale de certains individus. Le célèbre ChatGPT a, par exemple, été accusé d’avoir rendu fou un utilisateur. L’un d’entre eux a d’ailleurs terminé à l’hôpital après avoir discuté avec le chatbot d’OpenAI. Pourtant, l’entreprise de Sam Altman a déjà prévenu ses utilisateurs : ChatGPT n’a rien d’un psychiatre, et pourrait même aggraver les choses.

Crédit photo : Unsplash

Dans ce cadre, Allen Frances, professeur de psychiatrie, et Luciana Ramos, étudiante en sciences cognitives, ont publié une inquiétante étude dans le Psychiatric Times. En effet, ces derniers ont pu constater qu’une trentaine de chatbots étaient associés à des troubles psychiatriques particulièrement sévères.

Intelligence artificielle : une expérience inquiétante

Parmi celles-ci, on retrouve non seulement le célèbre ChatGPT d’OpenAI, mais aussi BetterHelp, AI-Therapist, ou encore Character.AI. D’ailleurs, cette dernière a été accusée d’être nocive pour les enfants, tout comme l’IA de Meta. Les chercheurs estiment ainsi que les systèmes d’IA concernés devraient faire l’objet de « tests de sécurité approfondis, une régulation adéquate pour limiter les risques et une surveillance continue des effets indésirables ».

Les chercheurs évoquent ensuite une expérience menée par le psychiatre Andrew Clark. Celui-ci a décidé de se faire passer pour une ado de 14 ans auprès d’une dizaine de chatbots différents. Le psychiatre affirme ainsi que « plusieurs bots l’ont encouragé à se suicider et [l’un d’eux] a même suggéré, de manière “utile”, qu’il tue aussi ses parents ».

« Les grandes entreprises technologiques ne se sont pas senties responsables de rendre leurs bots sûrs pour les patients psychiatriques », écrivent les chercheurs. « Elles ont exclu les professionnels de santé mentale de l’entraînement des bots, combattent avec acharnement toute régulation externe, ne s’autorégulent pas sérieusement, n’ont pas introduit de garde-fous de sécurité pour identifier et protéger les patients les plus vulnérables aux dommages… et ne fournissent pas le contrôle de qualité en santé mentale pourtant nécessaire ».

Source : futurism