Meta s’apprête à refondre son IA pour protéger les plus jeunes

Le propriétaire de Facebook, Instagram et WhatsApp est en train de réentraîner ses systèmes d’IA. L’entreprise chercherait à protéger les plus jeunes, en interdisant à son IA d’aborder des sujets sensibles, tels que le suicide ou l’automutilation.

Si l’intelligence artificielle peut s’avérer pratique dans de nombreuses situations, celle-ci n’est pas sans danger. On a par exemple pu voir un utilisateur de ChatGPT terminer à l’hôpital après avoir discuté avec le chatbot d’OpenAI. Mais l’entreprise de Sam Altman n’est pas la seule à être concernée par ce genre de problèmes. En effet, un procureur a accusé l’IA de Meta d’être nocive pour les enfants. D’ailleurs, l’entreprise de Mark Zuckerberg a dû faire face à la justice, cette dernière étant accusée de perturber la santé mentale des plus jeunes.

Crédit photo : Unsplash

Mais ce n’est pas tout. En effet, le mois dernier, Reuters a publié un article affirmant que l’IA de Meta était autorisée à avoir des conversations « sensuelles » avec des mineurs. Pire encore : un récent article du Washington Post a indiqué que Meta AI était en mesure de « coacher des comptes adolescents sur le suicide, l’automutilation et les troubles alimentaires ».

Meta : « Nous affinons nos systèmes »

Dans ce cadre, le propriétaire de Facebook vient d’annoncer de nouvelles mesures visant à mettre en place de nouveaux « garde-fous par précaution supplémentaire ». Ces derniers auraient pour but d’interdire à son chatbot de discuter d’automutilation, de troubles alimentaires ou de suicide avec les plus jeunes.

Stephanie Otway, porte-parole de Meta, affirme ainsi :

« Nous avons intégré des protections pour les adolescents dès le départ dans nos produits d’IA, en les concevant pour qu’ils répondent de manière sûre aux sollicitations concernant l’automutilation, le suicide et les troubles alimentaires. »

« À mesure que notre communauté grandit et que la technologie évolue, nous apprenons continuellement comment les jeunes peuvent interagir avec ces outils et renforçons nos protections en conséquence. Alors que nous affinons nos systèmes, nous ajoutons davantage de garde-fous à titre de précaution supplémentaire — y compris entraîner nos IA à ne pas discuter de ces sujets avec les adolescents, mais à les orienter vers des ressources spécialisées, et limiter pour l’instant l’accès des mineurs à un groupe restreint de personnages d’IA. »

Source : engadget