Google vient de subir une cyberattaque de grande ampleur à base d’intelligence artificielle
Des hackers auraient utilisé l’IA afin de déceler une faille de sécurité chez Google. Baptisée « zero day », celle-ci aurait pu compromettre le géant du numérique.
Si pratique soit-elle, l’intelligence artificielle peut être utilisée à des fins malveillantes. On a par exemple pu voir un virus généré par le célèbre OpenAI ChatGPT, capable de contourner votre antivirus. On a également pu voir des pirates utiliser l’IA Claude d’Anthropic pour rançonner des entreprises. Pire encore : certains hackers utilisent l’IA pour rendre leurs malwares indétectables. Mais c’est cette fois au tour de l’un des plus grands géants de la technologie d’être visé par une cyberattaque dopée à l’intelligence artificielle.
Des géants tels que Google, Meta ou Microsoft disposent d’un haut niveau de protection en matière de cybersécurité. Mais ces derniers ne sont pas infaillibles. En effet, il serait toujours possible de trouver des failles, baptisées « zero day ». Le problème, c’est que ces failles sont évidemment inconnues des experts en cybersécurité. Les pirates ont donc tout le temps d’agir avant que les experts ne trouvent une solution au problème.
Google : « C’est un avant-goût de ce qui nous attend »
Et c’est exactement ce que des hackers ont réussi à faire. Ces derniers ont décelé une faille chez Google, ce qui leur aurait permis de passer outre le système d’authentification à deux facteurs. Les pirates auraient utilisé un « outil populaire d’administration système open source basé sur le web », augmenté grâce à la puissance de l’intelligence artificielle.
« Nous avons un haut niveau de confiance dans le fait que l’acteur malveillant a probablement utilisé un modèle d’IA pour faciliter la découverte et l’exploitation de cette vulnérabilité », explique Google. Heureusement, l’entreprise affirme avoir résolu rapidement le problème. « L’acteur criminel prévoyait d’utiliser cette faille dans le cadre d’une campagne d’exploitation massive, mais notre découverte proactive pourrait avoir empêché son utilisation », poursuit le rapport.
Et il se pourrait que ce ne soit que le début. En effet, l’émergence de l’intelligence artificielle pourrait aggraver le problème. C’est en tout cas ce que laisse entendre John Hultquist, analyste en chef du Google Threat Intelligence Group. « C’est un avant-goût de ce qui nous attend », affirme-t-il. « Nous pensons que ce n’est que la partie émergée de l’iceberg. Le problème est probablement bien plus vaste ; c’est simplement la première preuve tangible que nous pouvons observer. »
Source : futurism