DeepSeek : Anthropic accuse l’entreprise chinoise d’avoir utilisé Claude pour entraîner son IA

Anthropic, bien connue pour son chatbot Claude, vient de pointer du doigt trois entreprises chinoises. Celle-ci accuse ainsi DeepSeek, Moonshot AI et MiniMax d’avoir créé des milliers de faux comptes pour entraîner leurs IA via Claude.

L’année dernière, l’arrivée de DeepSeek a fait l’effet d’une bombe dans l’industrie de l’intelligence artificielle. En effet, cette nouvelle IA chinoise affiche de remarquables performances, tout en bénéficiant d’un coût de développement nettement inférieur par rapport à des concurrents tels que ChatGPT (OpenAI), Gemini (Google), ou encore Claude (Anthropic). Mais celle-ci ne serait pas sans défaut. En effet, le concurrent de ChatGPT est non seulement accusé de collaboration avec le gouvernement chinois, mais a également été qualifié de « menace profonde » pour la sécurité nationale américaine.

Crédit photo : Unsplash

Mais il s’agit cette fois d’une accusation d’un nouveau genre. En effet, selon Anthropic, des entreprises telles que DeepSeek, Moonshot AI et MiniMax auraient créé pas moins de 24 000 faux comptes, qui auraient généré plus de 16 millions d’échanges avec Claude.

DeepSeek : véritable menace ou simple copieur ?

Anthropic qualifie cette méthode de « distillation ». En d’autres termes, les entreprises chinoises visées auraient tenté de copier le travail de Claude, ce qui leur permettrait de développer leurs IA à moindre frais. Les entreprises d’IA auraient ainsi ciblé « les capacités les plus différenciantes de Claude : raisonnement agentique, utilisation d’outils et programmation », selon Anthropic.

« Les attaques par distillation renforcent donc la justification des contrôles à l’exportation : restreindre l’accès aux puces limite à la fois l’entraînement direct des modèles et l’ampleur des distillations illicites », explique le créateur de Claude.

« Il est clair depuis un moment qu’une partie des progrès rapides des modèles d’IA chinois repose sur le vol via distillation de modèles américains de pointe. Nous en avons désormais la preuve », affirme Dmitri Alperovitch, président du think tank Silverado Policy Accelerator et cofondateur de CrowdStrike. « Cela devrait nous donner des raisons encore plus convaincantes de refuser de vendre des puces d’IA à ces entreprises, ce qui ne ferait que les avantager davantage. »

Et, une fois n’est pas coutume, Anthropic a une nouvelle fois évoqué une menace pour la sécurité nationale. « Anthropic et d’autres entreprises américaines construisent des systèmes qui empêchent des acteurs étatiques ou non étatiques d’utiliser l’IA pour, par exemple, développer des armes biologiques ou mener des cyberactivités malveillantes », écrit l’entreprise. « Les modèles issus d’une distillation illicite sont peu susceptibles de conserver ces garde-fous, ce qui signifie que des capacités dangereuses pourraient se diffuser sans ces protections. »

Source : techcrunch