Intelligence artificielle : ce sénateur américain veut interdire l’IA dans les jouets pour enfants

En 2026, l’intelligence artificielle est partout, y compris dans les jouets. Mais pour le sénateur Steve Padilla, les chatbots d’IA seraient potentiellement dangereux pour les enfants.

Si pratique soit-elle, l’intelligence artificielle n’est pas sans danger, particulièrement chez les plus jeunes. On a par exemple pu voir un adolescent demander à ChatGPT des conseils pour tuer son ami, ce qui a provoqué l’intervention des forces de l’ordre. Dans ce cadre, plusieurs entreprises d’IA prennent des mesures pour protéger les plus jeunes. Character.AI va, par exemple, interdire son chatbot aux enfants. De son côté, Meta s’apprête à refondre son IA afin de mieux protéger les mineurs.

Crédit photo : Unsplash

Et pourtant, cela n’empêche pas certains fabricants de jouets d’intégrer l’IA dans leurs produits. On pense par exemple à Mattel, le fabricant de la célèbre poupée Barbie, qui s’apprête à intégrer ChatGPT dans ses jouets.

Intelligence artificielle : « Nos enfants ne peuvent pas servir de cobayes à la Big Tech »

Mais pour Steve Padilla, sénateur américain, les chatbots d’IA n’ont pas leur place dans les jouets pour enfants. Ce dernier estime en effet que les plus jeunes seraient susceptibles d’avoir des « interactions dangereuses avec l’IA ». Dans ce cadre, le sénateur souhaite interdire leur fabrication et leur vente pour une période de quatre ans.

« Les chatbots et autres outils d’IA pourraient devenir des éléments centraux de nos vies à l’avenir, mais les dangers qu’ils présentent aujourd’hui exigent que nous prenions des mesures audacieuses pour protéger nos enfants », déclare Steve Padilla.

« Nos réglementations de sécurité concernant ce type de technologie en sont encore à leurs balbutiements et devront évoluer aussi rapidement que les capacités de cette technologie », ajoute le sénateur. « Suspendre la vente de ces jouets intégrant des chatbots nous donne le temps nécessaire pour élaborer des lignes directrices et un cadre de sécurité appropriés […] Nos enfants ne peuvent pas servir de cobayes à la Big Tech pour ses expérimentations ».

Il est vrai que certains comportements inquiétants impliquant un chatbot intégré dans un jouet ont déjà été rapportés. Un ours en peluche doté d’un chatbot intégré, baptisé Kumma, serait par exemple susceptible de parler d’allumettes, de couteaux ou de sujets sexuels.

Source : techcrunch