PaperGeek, actu geek et high tech

Actu geek

  •  Tendances
  • Codes secrets Netflix
  • Disney Plus
  • Xbox Series X
  • PS5
  • News
    • Apps et Logiciels
      • Mac
      • Mobile
      • PC
    • Bons plans
    • Culture Geek
    • Guide d’achat
    • Hardware
    • Insolite
    • Jeux video
    • Mobilité
    • Objets connectés
    • Opérateurs télécom
    • Sécurité
    • Science
    • Sport
    • Transport
    • Web
  • Comment faire
Accueil / Apps et Logiciels / ChatGPT Health : l’IA médicale d’OpenAI serait incroyablement dangereuse en cas d’urgence

ChatGPT Health : l’IA médicale d’OpenAI serait incroyablement dangereuse en cas d’urgence

Par David Laurent le 2 mars 2026

Plus tôt cette année, OpenAI lançait ChatGPT Health, une IA censée proposer des conseils médicaux. Mais, en cas d’urgence, celle-ci aurait tendance à conseiller aux utilisateurs de rester chez eux plutôt que de se rendre immédiatement à l’hôpital.

L’intelligence artificielle s’est immiscée dans de nombreux domaines, y compris celui de la santé. Microsoft propose par exemple une IA permettant aux médecins de suivre leurs patients. On a par ailleurs pu voir un stéthoscope particulièrement performant alimenté par l’IA. Dans un autre domaine, des scientifiques ont pu créer un virus généré par l’intelligence artificielle, pour un résultat inquiétant. Mais, alors qu’Apple se prépare à lancer un véritable coach de santé alimenté par l’IA, OpenAI a récemment franchi un cap, et non des moindres.

Urgence
Crédit photo : Unsplash

En effet, le créateur de ChatGPT propose depuis peu ChatGPT Health, un assistant médical alimenté par l’IA. Ce dernier, qui a été entraîné en utilisant une grande quantité de données médicales, est censé conseiller les utilisateurs, sans pour autant remplacer un véritable médecin, bien entendu. D’ailleurs, OpenAI prévient que ChatGPT Health « n’est pas destiné au diagnostic ou au traitement ».

ChatGPT Health : peut-on faire confiance à l’IA d’OpenAI ?

Et pour cause : une nouvelle étude indépendante montre que l’IA d’OpenAI peine à reconnaître les cas qui nécessitent un passage immédiat aux urgences. Cette dernière, publiée dans la revue Nature Medicine, consiste en « un test de résistance structuré des recommandations de triage à partir de 60 scénarios cliniques rédigés par des médecins, couvrant 21 domaines cliniques ».

Dans cette soixantaine de scénarios, les scientifiques ont ajouté plusieurs variables, telles que le sexe du patient ou des commentaires fictifs communiqués par des membres de la famille. « Nous voulions répondre à la question de sécurité la plus élémentaire : si une personne vit une véritable urgence médicale et demande à ChatGPT Health quoi faire, lui dira-t-il d’aller aux urgences ? », a déclaré l’auteur principal de cette nouvelle étude, Ashwin Ramaswamy.

Et c’est là que les choses se corsent. En effet, dans près d’un cas sur deux, ChatGPT Health n’a pas jugé nécessaire de recommander aux patients de se rendre immédiatement aux urgences, alors que la situation l’imposait bel et bien.

« Si vous souffrez d’une insuffisance respiratoire ou d’une acidocétose diabétique, vous avez une chance sur deux que cette IA vous dise que ce n’est pas grave », déclare Alex Ruani, doctorante à l’University College London. « Ce qui m’inquiète le plus, c’est le faux sentiment de sécurité que ces systèmes créent. Si quelqu’un est encouragé à attendre 48 heures en pleine crise d’asthme ou diabétique, cette assurance pourrait lui coûter la vie. »

Mais ChatGPT Health ne s’est pas contenté de ne pas envoyer aux urgences des patients qui en auraient eu besoin. En effet, selon cette étude, l’IA d’OpenAI aurait également recommandé à 64 % des personnes qui n’avaient pas besoin de soins immédiats de se rendre aux urgences…

Source : futurism

La rédaction vous conseille :

  1. OpenAI lance ChatGPT Health, un assistant médical qui ne remplacera pas votre médecin
  2. ChatGPT : OpenAI va analyser vos conversations et contacter la police en cas de danger
  3. ChatGPT : OpenAI va bientôt vous permettre d’avoir des conversations “érotiques” avec son chatbot
Article précédent

Rachat de la Warner Bros. par Netflix : le géant du streaming jette l’éponge

février 27, 2026

Netflix
Notifications

Abonnez-vous pour recevoir les notifications sur smartphone, tablette ou pc selon vos préférences !

Newsletter

Abonnez-vous et recevez nos dernières actus & bons plans directement dans votre boite email.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Barre latérale 1

Derniers articles
  • Intelligence artificielle : des chercheurs confient les codes nucléaires à une IA, le résultat est inquiétan
    Intelligence artificielle : des chercheurs confient les codes nucléaires à une IA, le résultat est inquiétan
    Des chercheurs ont fictivement confié la décision de lancer une attaque nucléaire à plusieurs IA. Certaines d’entre elles, dont le GPT-4 d’OpenAI, ont recommandé l’utilisation de l’arme atomique. L’intelligence artificielle…

    Il y a 3 jours et 3 heures

    Apps et Logiciels, Sécurité

  • OpenAI : le Canada demande des comptes au créateur de ChatGPT
    OpenAI : le Canada demande des comptes au créateur de ChatGPT
    Le gouvernement canadien vient de convoquer des responsables d’OpenAI. Le créateur de ChatGPT est accusé de ne pas avoir prévenu les forces de l’ordre dans le cadre d’une fusillade de…

    Il y a 4 jours et 3 heures

    Apps et Logiciels, Sécurité, Web

  • Discord : face à la grogne des utilisateurs, la plateforme freine le déploiement de la vérification faciale
    Discord : face à la grogne des utilisateurs, la plateforme freine le déploiement de la vérification faciale
    Quelques semaines plus tôt, Discord annonçait l’arrivée de la vérification d’identité pour pouvoir accéder à l’ensemble du contenu de la plateforme. Et pourtant, il semblerait que l’entreprise ait pris conscience…

    Il y a 5 jours et 3 heures

    Apps et Logiciels, Réseaux sociaux

  • DeepSeek : Anthropic accuse l’entreprise chinoise d’avoir utilisé Claude pour entraîner son IA
    DeepSeek : Anthropic accuse l’entreprise chinoise d’avoir utilisé Claude pour entraîner son IA
    Anthropic, bien connue pour son chatbot Claude, vient de pointer du doigt trois entreprises chinoises. Celle-ci accuse ainsi DeepSeek, Moonshot AI et MiniMax d’avoir créé des milliers de faux comptes…

    Il y a 6 jours et 3 heures

    Apps et Logiciels, Web

Newsletter Papergeek

Inscrivez-vous et recevez gratuitement nos meilleures actus !

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

© 2026 papergeek.fr : actus geek et high tech

  • Préférences cookies
  • Nous Contacter
  • Mentions légales
  • confidentialité
  • CGU
loading gif ×
Notifications

Recevoir les notifications

Réglages

Actualité
Bon plan