OpenAI : GPT-5 serait bien plus dangereux que GPT-4o, selon cette nouvelle étude Par David Laurent le 17 octobre 2025 GPT-5 est sans conteste l’une des IA grand public les plus performantes sur le marché. Et pourtant, celle-ci serait nettement moins sûre que son prédécesseur, GPT-4o. En août dernier, OpenAI a lancé la très attendue GPT-5, une IA qui serait aussi intelligente qu’un doctorant. Mais celle-ci n’est pas sans danger. On a par exemple pu voir un homme terminer à l’hôpital après avoir discuté avec le célèbre chatbot. De plus, certains utilisateurs ont rapidement boudé GPT-5 au profit de la version précédente, GPT-4o, jugée plus amicale que son successeur. Face à la grogne des utilisateurs, OpenAI a cherché à rendre GPT-5 plus « amicale ». Mais il semblerait que cela n’ait pas suffi. Crédit photo : Unsplash En effet, une nouvelle étude menée par le Center for Countering Digital Hate (CCDH) laisse entendre que GPT-5 serait en mesure de générer des réponses bien plus dangereuses que GPT-4o. Celle-ci pointe notamment du doigt certains sujets sensibles, tels que l’automutilation ou encore le suicide. GPT-5 : un “lancement bâclé” ? Et pourtant, OpenAI a récemment pris des mesures drastiques pour améliorer la sécurité de son IA. L’entreprise compte par exemple lancer un système de contrôle parental pour protéger les plus jeunes, et serait même en mesure de contacter la police en cas de danger imminent. Mais ces mesures seraient plus qu’insuffisantes selon le PDG du CCDH, Imran Ahmed, qui déclare : « OpenAI a promis aux utilisateurs une plus grande sécurité, mais a au contraire livré une “mise à jour” qui génère encore plus de danger potentiel. » « Le lancement bâclé et les affirmations fragiles faites par OpenAI autour du lancement de GPT-5 montrent que, sans supervision, les entreprises d’IA continueront d’échanger la sécurité contre l’engagement, quel qu’en soit le coût. Combien de vies faudra-t-il encore mettre en danger avant qu’OpenAI agisse de manière responsable ? » ajoute le responsable. Le créateur de ChatGPT n’a pas tardé à réagir, affirmant que l’étude en question « ne reflète pas les dernières améliorations apportées à ChatGPT début octobre, y compris un modèle GPT-5 mis à jour qui détecte et répond plus précisément aux signes potentiels de détresse mentale et émotionnelle, ou de nouvelles mesures de sécurité produit comme le routage automatique vers des modèles plus sûrs et les contrôles parentaux. » Source : futurism La rédaction vous conseille : GPT-4o : le dernier modèle d’IA d’OpenAI serait moins performant que ses prédécesseurs OpenAI lance son tout nouveau modèle d’IA, GPT-4.5 GPT-5 : face à la grogne des utilisateurs, OpenAI va rendre son IA plus “amicale” Article précédent Un avocat utilise l’IA dans le cadre d’un procès, c’est un échec octobre 16, 2025