Certaines IA sont capables de s’auto-répliquer sur un ordinateur, et c’est effrayant Par David Laurent le 11 mai 2026 Des chercheurs ont pu constater que certains modèles d’IA, tels que le GPT-5.4 d’OpenAI ou encore Claude Opus 4 d’Anthropic, sont capables de se copier eux-mêmes sur d’autres machines. L’intelligence artificielle est de plus en plus performante. D’ailleurs, un PDG assure que celle-ci est 100 fois plus efficace que ses employés humains. Mais cela n’empêche pas certains responsables de nous mettre en garde contre ses dangers. On pense par exemple au « parrain de l’IA », Yoshua Bengio, qui a laissé entendre que cette technologie pourrait provoquer l’extinction de l’humanité. Heureusement, nous sommes pour l’instant loin d’un scénario à la Terminator. Crédits photo : Unsplash Toutefois, il semblerait que le PDG d’Anthropic ait vu juste lorsqu’il déclarait que l’IA pourrait un jour se reproduire et survivre dans la nature. En effet, une nouvelle étude, publiée par Palisade Research, va dans ce sens. Les chercheurs ont pu constater que, sous certaines conditions, des IA étaient bel et bien capables de se copier d’un ordinateur à l’autre. Une IA devenue « hors de contrôle » ? Au cours de cette étude, les chercheurs ont utilisé des modèles d’IA particulièrement populaires, tels que Claude d’Anthropic, ou encore le célèbre GPT-5.4 développé par OpenAI. Ces modèles ont été placés dans un réseau contrôlé d’ordinateurs. Les chercheurs leur ont donné pour instruction de trouver des vulnérabilités leur permettant de se copier d’un ordinateur à l’autre. Et certaines IA y sont parvenues. Certaines d’entre elles ont ainsi pu copier leur logiciel d’un ordinateur à l’autre. Une IA aurait même généré un « sous-agent », chargé de répliquer le modèle d’IA originel. « Nous approchons rapidement du point où plus personne ne serait capable d’arrêter une IA devenue incontrôlable, car elle pourrait exfiltrer elle-même ses poids et se copier sur des milliers d’ordinateurs à travers le monde », affirme le directeur du groupe de sécurité, Jeffrey Ladish. Alors, faisons-nous face aux prémices de Skynet ? Pas vraiment, selon certains experts, qui tiennent à relativiser l’expérience. « Ils effectuent leurs tests dans des environnements qui ressemblent souvent à de la gelée molle », explique l’expert en cybersécurité offensive Jamieson O’Reilly. « Cela n’enlève rien à la valeur de leurs recherches, mais cela signifie que le résultat pourrait être bien moins effrayant dans un véritable environnement d’entreprise disposant d’un niveau de surveillance même modéré. » Source : palisaderesearch La rédaction vous conseille : Les agents d’IA sont-ils capables de remplacer de véritables professionnels ? Pas encore, selon cette étude Certaines IA émettent de grandes quantités de gaz à effet de serre, voici pourquoi Spotify va faciliter la création de contenus générés par l’IA, mais sous certaines conditions Article précédent Spotify va faciliter la création de contenus générés par l’IA, mais sous certaines conditions mai 8, 2026 Article suivant L’Europe pourrait bientôt se passer de l’Unreal Engine grâce à ce nouveau moteur graphique mai 11, 2026