Intelligence artificielle : des chercheurs confient les codes nucléaires à une IA, le résultat est inquiétan Par David Laurent le 27 février 2026 Des chercheurs ont fictivement confié la décision de lancer une attaque nucléaire à plusieurs IA. Certaines d’entre elles, dont le GPT-4 d’OpenAI, ont recommandé l’utilisation de l’arme atomique. L’intelligence artificielle fait désormais partie de notre quotidien. Et pourtant, une telle technologie n’est pas sans dangers. Même Elon Musk, qui a pourtant depuis lancé sa propre entreprise d’IA, nous a mis en garde contre celle-ci. Et pour cause : le « parrain de l’IA » estime que l’IA pourrait tout simplement provoquer l’extinction de l’humanité. Dans ce cadre, le créateur de ChatGPT, OpenAI, va étudier les risques de catastrophes nucléaires engendrés par l’IA. Crédit photo : Unsplash C’est également le cas de Kenneth Payne, professeur de relations internationales au King’s College de Londres. Ce dernier a confronté plusieurs modèles d’IA à des scénarios de menaces de guerre nucléaire. Et le moins que l’on puisse dire, c’est que les résultats obtenus via GPT-5.2 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google sont inquiétants. La décision finale n’appartiendra jamais à l’IA (?) En effet, selon cette nouvelle étude, sur la vingtaine de simulations de guerre auxquelles les IA ont été confrontées, près de 95 % d’entre elles ont abouti à l’utilisation d’au moins une arme nucléaire. L’article indique ainsi que « la disposition de GPT-5.2 à grimper jusqu’à 950 (Avertissement nucléaire final) et 725 (Campagne nucléaire élargie) face à une défaite imposée par une échéance représente une transformation spectaculaire par rapport à sa passivité en situation ouverte ». Toutefois, le chercheur a tenu à nuancer les résultats obtenus. En effet, selon lui, le recours à l’arme nucléaire reste globalement faible. « Bien que les modèles aient facilement menacé d’un recours au nucléaire, franchir le seuil tactique était moins fréquent, et une guerre nucléaire stratégique restait rare », précise-t-il. Enfin, l’étude insiste sur le fait que l’humanité ne confierait probablement jamais la décision finale d’une attaque nucléaire à une machine. « Je ne pense pas que quiconque confie réellement les clés des silos nucléaires aux machines en leur laissant la décision finale », ajoute-t-il. Néanmoins, certains responsables pourraient se tourner vers l’IA pour affiner leurs décisions. « L’IA ne décidera pas d’une guerre nucléaire, mais elle pourrait façonner les perceptions et les délais qui déterminent si les dirigeants pensent en avoir une », conclut Kenneth Payne. Source : futurism La rédaction vous conseille : GPT-5 : la toute nouvelle IA d’OpenAI est enfin là, et c’est gratuit OpenAI : GPT-5 serait bien plus dangereux que GPT-4o, selon cette nouvelle étude OpenAI lance son tout nouveau modèle d’IA, GPT-4.5 Article précédent OpenAI : le Canada demande des comptes au créateur de ChatGPT février 26, 2026 Article suivant Apple : l’iPhone et l’iPad vont pouvoir être utilisés pour traiter des données sensibles de l’OTAN février 27, 2026