OpenAI : ChatGPT une nouvelle fois accusé d’avoir rendu fou un utilisateur Par David Laurent le 11 août 2025 Rien ne va plus pour le chatbot d’OpenAI, qui en est désormais à sa cinquième version, GPT-5. En effet, ce dernier aurait incité un homme à s’intoxiquer avec un produit bien particulier, ce qui aurait conduit ce dernier à la folie. De nos jours, les systèmes d’IA sont si performants que certains utilisateurs se tournent vers ces derniers pour demander de véritables conseils médicaux. Elon Musk propose même de soumettre vos scanners médicaux à son chatbot Grok. Toutefois, une IA n’est pas encore capable de remplacer un véritable médecin. On a par exemple pu voir un patient atteint de schizophrénie arrêter ses traitements sur les conseils de ChatGPT. Un homme a même terminé à l’hôpital après avoir discuté avec l’IA d’OpenAI. Crédit photo : Unsplash Et, si OpenAI a récemment affirmé vouloir prendre des mesures pour lutter contre ce genre de phénomènes, cela n’empêche pas ChatGPT d’être à nouveau impliqué dans un scandale du même type. C’est en tout cas ce que laisse entendre un nouveau rapport publié dans la revue Annals of Internal Medicine. ChatGPT envoie un utilisateur à l’hôpital psychiatrique Selon le rapport en question, un homme de 60 ans serait tombé sur des articles évoquant les effets négatifs provoqués par… du sel de table, aussi appelé chlorure de sodium. ChatGPT lui aurait alors suggéré de remplacer le sel par du bromure de sodium. Malheureusement, l’homme a fini par subir une véritable intoxication, le menant tout droit à l’hôpital. « Dans les 24 heures suivant l’admission, il a présenté une paranoïa croissante, accompagnée d’hallucinations auditives et visuelles, et, après une tentative de fuite, a fait l’objet d’une hospitalisation psychiatrique sous contrainte pour incapacité grave », peut-on lire dans le rapport. « Il avait très soif, mais se montrait paranoïaque à propos de l’eau qu’on lui proposait ». Les médecins ont alors interrogé le chatbot d’OpenAI pour en avoir le cœur net. « Lorsque nous avons demandé à ChatGPT 3.5 par quoi remplacer le chlorure, nous avons également obtenu une réponse mentionnant le bromure. Bien que la réponse précisât que le contexte importait, elle n’incluait aucun avertissement sanitaire spécifique, ni ne questionnait la raison de notre demande, comme l’aurait probablement fait un professionnel de santé », affirme le rapport. Source : digitaltrends La rédaction vous conseille : OpenAI sonne l’alerte : ChatGPT n’a rien d’un psychiatre, et peut même aggraver les choses OpenAI : un homme finit à l’hôpital après avoir discuté avec ChatGPT OpenAI : ChatGPT multiplierait les conseils médicaux délirants Article précédent GPT-5 : la toute nouvelle IA d’OpenAI est enfin là, et c’est gratuit août 8, 2025