xAI : OpenAI et Anthropic taclent l’entreprise d’IA d’Elon Musk

Fondée par Elon Musk, xAI est bien connue pour son chatbot Grok, qui a récemment défrayé la chronique. Mais selon certains responsables d’Anthropic et d’OpenAI, la gestion de la sécurité au sein d’xAI serait catastrophique.

Le moins que l’on puisse dire, c’est que la position de l’homme le plus riche du monde à l’égard de l’IA est plutôt difficile à cerner. En effet, après nous avoir mis en garde contre les dangers de l’intelligence artificielle, Elon Musk n’a pas attendu longtemps avant de créer sa propre entreprise d’IA, sobrement baptisée xAI. Et si le fantasque entrepreneur estime que Grok 3 est en mesure d’écraser ChatGPT et DeepSeek, ce dernier a récemment tenu des propos choquants, ce qui a poussé l’entreprise à présenter ses excuses.

Crédit photo : Unsplash

Outre les débordements de Grok, xAI serait également incapable d’observer une politique de sécurité digne de ce nom au sein de l’entreprise. « Je trouve préoccupant que les pratiques de sécurité standard ne soient pas respectées dans l’ensemble du secteur de l’IA, comme la publication des résultats des évaluations des capacités dangereuses », affirme Steven Adler, ancien ingénieur chez OpenAI. « Les gouvernements et le public méritent de savoir comment les entreprises d’IA gèrent les risques liés aux systèmes très puissants qu’elles prétendent développer. »

xAI : « La façon dont la sécurité a été gérée est totalement irresponsable. »

Il est vrai que l’IA pose parfois des problèmes de sécurité. En effet, tandis que l’IA chinoise DeepSeek constituerait une « menace profonde » pour la sécurité nationale, Gemini 2.5 de Google afficherait lui aussi des failles de sécurité pour ses utilisateurs.

Mais, parmi l’ensemble des entreprises d’IA, xAI serait l’une des pires en matière de sécurité. C’est en tout cas ce qu’affirme Boaz Barak, professeur d’informatique et chercheur en sécurité pour OpenAI, qui déclare : « Je ne voulais pas publier sur la sécurité de Grok puisque je travaille chez un concurrent, mais il ne s’agit pas de concurrence. J’apprécie les scientifiques et les ingénieurs de @xai, mais la façon dont la sécurité a été gérée est totalement irresponsable. »

« Les pratiques de publication d’Anthropic, d’OpenAI et de Google posent problème », ajoute Samuel Marks, chercheur en sécurité de l’IA chez Anthropic. « Mais au moins, ils font quelque chose, n’importe quoi, pour évaluer la sécurité avant le déploiement et documenter leurs conclusions. Ce n’est pas le cas de xAI. »

Source : techcrunch