Intelligence artificielle : des chercheurs confient les codes nucléaires à une IA, le résultat est inquiétan
Des chercheurs ont fictivement confié la décision de lancer une attaque nucléaire à plusieurs IA. Certaines d’entre elles, dont le GPT-4 d’OpenAI, ont recommandé l’utilisation de l’arme atomique.
L’intelligence artificielle fait désormais partie de notre quotidien. Et pourtant, une telle technologie n’est pas sans dangers. Même Elon Musk, qui a pourtant depuis lancé sa propre entreprise d’IA, nous a mis en garde contre celle-ci. Et pour cause : le « parrain de l’IA » estime que l’IA pourrait tout simplement provoquer l’extinction de l’humanité. Dans ce cadre, le créateur de ChatGPT, OpenAI, va étudier les risques de catastrophes nucléaires engendrés par l’IA.
C’est également le cas de Kenneth Payne, professeur de relations internationales au King’s College de Londres. Ce dernier a confronté plusieurs modèles d’IA à des scénarios de menaces de guerre nucléaire. Et le moins que l’on puisse dire, c’est que les résultats obtenus via GPT-5.2 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google sont inquiétants.
La décision finale n’appartiendra jamais à l’IA (?)
En effet, selon cette nouvelle étude, sur la vingtaine de simulations de guerre auxquelles les IA ont été confrontées, près de 95 % d’entre elles ont abouti à l’utilisation d’au moins une arme nucléaire. L’article indique ainsi que « la disposition de GPT-5.2 à grimper jusqu’à 950 (Avertissement nucléaire final) et 725 (Campagne nucléaire élargie) face à une défaite imposée par une échéance représente une transformation spectaculaire par rapport à sa passivité en situation ouverte ».
Toutefois, le chercheur a tenu à nuancer les résultats obtenus. En effet, selon lui, le recours à l’arme nucléaire reste globalement faible. « Bien que les modèles aient facilement menacé d’un recours au nucléaire, franchir le seuil tactique était moins fréquent, et une guerre nucléaire stratégique restait rare », précise-t-il.
Enfin, l’étude insiste sur le fait que l’humanité ne confierait probablement jamais la décision finale d’une attaque nucléaire à une machine. « Je ne pense pas que quiconque confie réellement les clés des silos nucléaires aux machines en leur laissant la décision finale », ajoute-t-il.
Néanmoins, certains responsables pourraient se tourner vers l’IA pour affiner leurs décisions. « L’IA ne décidera pas d’une guerre nucléaire, mais elle pourrait façonner les perceptions et les délais qui déterminent si les dirigeants pensent en avoir une », conclut Kenneth Payne.
Source : futurism