Gemini 2.5 : la dernière IA de Google pourrait présenter des “risques sérieux” en matière de sécurité

L’IA la plus puissante de Google à ce jour, Gemini 2.5, est dans le viseur des experts. En effet, certains d’entre eux estiment que le géant du numérique n’a pas suffisamment expliqué les risques que pourrait présenter le modèle.

Face au succès rencontré par ChatGPT, Google n’aura pas attendu longtemps pour rattraper son retard en matière d’intelligence artificielle. En effet, après avoir raté le lancement de Bard, Google a rapidement dévoilé Gemini, une IA censée concurrencer ChatGPT. Depuis, celle-ci a eu droit à une version 2.0, suivie par le dernier modèle de l’entreprise, Gemini 2.5. Et pourtant, si puissante soit-elle, la dernière IA de Google inquiète les experts.

Crédit photo : Unsplash

Peu de temps après le lancement de Gemini 2.5, Google a, comme à son habitude, publié un rapport technique précisant les caractéristiques de son IA, et notamment en matière de sécurité. Toutefois, les experts estiment que le rapport manque de détails concernant l’aspect sécuritaire de Gemini 2.5.

Gemini : Google dans le viseur des experts

« Ce [rapport] est très succinct, contient un minimum d’informations et a été publié plusieurs semaines après la mise à disposition du modèle au public », affirme ainsi Peter Wildeford, cofondateur de l’Institute for AI Policy and Strategy. « Il est impossible de vérifier si Google respecte ses engagements publics et donc impossible d’évaluer la sûreté et la sécurité de ses modèles. »

« J’espère que Google s’engage à publier des mises à jour plus fréquentes », ajoute Thomas Woodside, cofondateur du Secure AI Project. « Ces mises à jour devraient inclure les résultats des évaluations des modèles qui n’ont pas encore été déployés publiquement, car ceux-ci pourraient également présenter des risques sérieux. »

Kevin Bankston, conseiller principal en matière de gouvernance de l’IA au Center for Democracy and Technology, se veut encore plus inquiétant. Le responsable affirme : « Combinée aux informations selon lesquelles des laboratoires concurrents comme OpenAI ont réduit de plusieurs mois à quelques jours la durée de leurs tests de sécurité avant la mise sur le marché, cette documentation insuffisante sur le modèle d’IA phare de Google témoigne d’une course inquiétante vers le bas en matière de sécurité et de transparence de l’IA, alors que les entreprises se précipitent pour commercialiser leurs modèles. »

Source : techcrunch