Elon Musk met en garde contre les dangers de l’IA

Elon Musk, pourtant féru de nouvelles technologies, semble s’inquiéter de la tournure des événements concernant le surdéveloppement de l’intelligence artificielle. Le milliardaire s’est ainsi associé d’imminents chercheurs afin de mettre en garde les utilisateurs…

Suite au succès de ChatGPT, de nombreuses entreprises se lancent dans la course. Microsoft investi d’ailleurs des millions de dollars dans le développement du chatbot. Et si Elon Musk veut créer son propre modèle, considérant ChatGPT comme “trop woke”, celui-ci émet des doutes quant à l’avenir de cette technologie, pointant certains dangers pour la société.

Credit photo : Wikimedia

Ainsi, Elon Musk, accompagné de plusieurs experts en IA de renoms, a publié une lettre ouverte via l’organisation à but non lucratif Future of Life Institute. Le document appelle ainsi les laboratoires d’IA du monde entier à interrompre le développement de systèmes d’IA à grande échelle, citant les craintes concernant les “risques profonds pour la société et l’humanité“.

Elon Musk : les recherches doivent être stoppées immédiatement

La lettre indique ainsi : “Par conséquent, nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que GPT-4 […] Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire“.

Parmi les signataires figurent le cofondateur d’Apple Steve Wozniak, le cofondateur de Skype Jaan Tallinn, l’homme politique Andrew Yang, ainsi qu’un certain nombre de chercheurs et de PDG réputés dans le domaine. Toutefois, il est peu probable que la lettre ait un quelconque effet sur le climat actuel de la recherche sur l’IA. En effet, même le géant Google s’est récemment lancé dans la course en lançant Bard, concurrent potentiel a ChatGPT.

Selon les experts, les entreprises devraient profiter de cette pause pour définir le futur de l’IA à grande échelle. “Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement de l’IA avancée”.

Source : businessam