L’armée américaine teste une mitrailleuse alimentée par l’IA Par David Laurent le 18 novembre 2024 Voilà une initiative aussi impressionnante qu’inquiétante. L’US Army est en train de tester un système de mitrailleuse automatisée, qui utilise l’intelligence artificielle pour cibler des drones. Si James Cameron nous avait prévenus des dangers d’une IA armée dans le film Terminator, cela n’empêche pas l’usage croissant de robots sur le champ de bataille. L’armée française, par exemple, a testé le robot-chien Spot de Boston Dynamics en conditions militaires, tandis que la police de Boston utilise déjà ce même type d’appareil. Et, si ces modèles sont dépourvus d’armement, ce n’est pas le cas d’une variante d’un autre robot-chien développé par Unitree Robotics, capable d’être équipé d’un fusil d’assaut. Crédit photo : Allen Control Systems Ce type d’appareil semble avoir inspiré Allen Control Systems (ACS), un sous-traitant du ministère américain de la Défense. Cette entreprise a conçu le Bullfrog, un système d’armement autonome alimenté par l’intelligence artificielle. Quels sont les dangers d’une arme contrôlée par l’IA ? Le Bullfrog a pour mission principale de traiter les drones rapides et de petite taille, difficiles à abattre en raison de leur vitesse élevée. L’utilisation des drones a explosé durant le conflit russo-ukrainien, ces engins étant employés pour bombarder des cibles ou même neutraliser des chars de combat. « Lors de l’invasion de l’Ukraine par les Russes, nous avons assisté à la prolifération des drones des deux côtés du conflit, et nous avons lu dans divers médias que les Ukrainiens leur tiraient dessus avec des AK-47 », explique Steve Simoni, cofondateur et PDG d’ACS. « Nous nous sommes dit qu’il s’agissait d’un bon problème de robotique. Il est difficile de frapper quelque chose qui vole si vite, mais un robot peut le faire grâce à la vision artificielle moderne et aux algorithmes de contrôle de l’IA. » Des œuvres de fiction comme Terminator ou RoboCop ont montré les risques de confier des armes à une IA. Mike Clementi, ancien membre du Congrès chargé des crédits de défense, met en garde : « Tout ce qui relève de la robotique nécessite un logiciel pour déterminer s’il s’agit d’un ami ou d’un ennemi, et c’est un problème pour tout ce qui est automatisé. L’utilisation de systèmes entièrement automatisés serait un “territoire inconnu”. Il y a toujours eu une personne dans la boucle auparavant. » Source : futurism La rédaction vous conseille : Intelligence artificielle : ce lycée commence à remplacer ses professeurs par l’IA OpenAI lance une énorme mise à jour pour ChatGPT et GPT-4 Article précédent Windows 11 n’aura pas de mise à jour avant 2025, voici pourquoi novembre 15, 2024 Article suivant GPT-4o : le dernier modèle d’IA d’OpenAI serait moins performant que ses prédécesseurs novembre 22, 2024