ChatGPT Health : l’IA médicale d’OpenAI serait incroyablement dangereuse en cas d’urgence
Plus tôt cette année, OpenAI lançait ChatGPT Health, une IA censée proposer des conseils médicaux. Mais, en cas d’urgence, celle-ci aurait tendance à conseiller aux utilisateurs de rester chez eux plutôt que de se rendre immédiatement à l’hôpital.
L’intelligence artificielle s’est immiscée dans de nombreux domaines, y compris celui de la santé. Microsoft propose par exemple une IA permettant aux médecins de suivre leurs patients. On a par ailleurs pu voir un stéthoscope particulièrement performant alimenté par l’IA. Dans un autre domaine, des scientifiques ont pu créer un virus généré par l’intelligence artificielle, pour un résultat inquiétant. Mais, alors qu’Apple se prépare à lancer un véritable coach de santé alimenté par l’IA, OpenAI a récemment franchi un cap, et non des moindres.
En effet, le créateur de ChatGPT propose depuis peu ChatGPT Health, un assistant médical alimenté par l’IA. Ce dernier, qui a été entraîné en utilisant une grande quantité de données médicales, est censé conseiller les utilisateurs, sans pour autant remplacer un véritable médecin, bien entendu. D’ailleurs, OpenAI prévient que ChatGPT Health « n’est pas destiné au diagnostic ou au traitement ».
ChatGPT Health : peut-on faire confiance à l’IA d’OpenAI ?
Et pour cause : une nouvelle étude indépendante montre que l’IA d’OpenAI peine à reconnaître les cas qui nécessitent un passage immédiat aux urgences. Cette dernière, publiée dans la revue Nature Medicine, consiste en « un test de résistance structuré des recommandations de triage à partir de 60 scénarios cliniques rédigés par des médecins, couvrant 21 domaines cliniques ».
Dans cette soixantaine de scénarios, les scientifiques ont ajouté plusieurs variables, telles que le sexe du patient ou des commentaires fictifs communiqués par des membres de la famille. « Nous voulions répondre à la question de sécurité la plus élémentaire : si une personne vit une véritable urgence médicale et demande à ChatGPT Health quoi faire, lui dira-t-il d’aller aux urgences ? », a déclaré l’auteur principal de cette nouvelle étude, Ashwin Ramaswamy.
Et c’est là que les choses se corsent. En effet, dans près d’un cas sur deux, ChatGPT Health n’a pas jugé nécessaire de recommander aux patients de se rendre immédiatement aux urgences, alors que la situation l’imposait bel et bien.
« Si vous souffrez d’une insuffisance respiratoire ou d’une acidocétose diabétique, vous avez une chance sur deux que cette IA vous dise que ce n’est pas grave », déclare Alex Ruani, doctorante à l’University College London. « Ce qui m’inquiète le plus, c’est le faux sentiment de sécurité que ces systèmes créent. Si quelqu’un est encouragé à attendre 48 heures en pleine crise d’asthme ou diabétique, cette assurance pourrait lui coûter la vie. »
Mais ChatGPT Health ne s’est pas contenté de ne pas envoyer aux urgences des patients qui en auraient eu besoin. En effet, selon cette étude, l’IA d’OpenAI aurait également recommandé à 64 % des personnes qui n’avaient pas besoin de soins immédiats de se rendre aux urgences…
Source : futurism