OpenAI : ChatGPT conseille à une personne malade d’arrêter ses traitements Par David Laurent le 16 juin 2025 De nos jours, de nombreux utilisateurs se tournent vers ChatGPT pour des problèmes de santé. Mais une utilisatrice atteinte de schizophrénie s’est vue déconseiller de poursuivre ses traitements, pourtant indispensables. L’intelligence artificielle est en train de s’immiscer dans de nombreux domaines, y compris celui de la santé. Apple pourrait par exemple bientôt lancer un véritable coach de santé boosté à l’IA. D’ailleurs, des médecins commencent déjà à utiliser l’IA de Microsoft afin de suivre leurs patients. Mais il s’agit cette fois du plus célèbre des chatbots, ChatGPT. En effet, tandis qu’OpenAI veut proposer un véritable coach de santé alimenté par l’IA, celle-ci donne des conseils plutôt inquiétants à certains patients. Crédit photo : Unsplash Il semblerait que ChatGPT ne soit pas encore en mesure de remplacer un véritable médecin. C’est en tout cas l’amer constat qu’a pu faire une femme, dont la sœur est atteinte de schizophrénie. Cette dernière, qui estime que ChatGPT était sa « meilleure amie », a demandé au chatbot des conseils sur son état de santé. ChatGPT : des conseils inadaptés ? ChatGPT aurait alors répondu que l’utilisatrice « n’était pas schizophrène », et lui aurait même suggéré d’arrêter son traitement. « Ces derniers temps, elle se comporte de manière étrange, et elle a maintenant annoncé que ChatGPT était sa “meilleure amie” et qu’elle lui confirmait qu’elle n’était pas schizophrène », déclare la sœur de l’intéressée. « Elle a arrêté ses médicaments et envoie à ma mère des messages agressifs rédigés dans un langage thérapeutique, qui ont clairement été écrits par l’IA. » L’IA aurait ainsi pointé du doigt des effets secondaires pourtant inexistants. « Elle l’utilise également pour réaffirmer tous les effets néfastes de ses médicaments, même s’il s’agit d’effets secondaires qu’elle ne ressentait pas », ajoute-t-elle. « C’est comme une version encore plus sombre des personnes qui deviennent folles en vivant sur WebMD. » Contactée par Futurism, OpenAI s’est contentée de répondre : « Nous savons que les gens utilisent ChatGPT dans des contextes très variés, y compris dans des moments très personnels, et nous prenons cette responsabilité très au sérieux. Nous avons intégré des mesures de sécurité afin de réduire le risque qu’il renforce des idées néfastes, et nous continuons à travailler pour mieux reconnaître et répondre aux situations sensibles. » Source : futurism La rédaction vous conseille : ChatGPT Search : le moteur de recherche d’OpenAI commettrait de lourdes erreurs ChatGPT Search : le “Google killer” d’OpenAI est désormais disponible gratuitement OpenAI : ChatGPT est-il capable de remplacer un véritable médecin ? Article précédent Disney et NBC Universal entrent en guerre contre le générateur d’images Midjourney juin 13, 2025