Intelligence artificielle : ce sénateur américain veut interdire l’IA dans les jouets pour enfants Par David Laurent le 7 janvier 2026 En 2026, l’intelligence artificielle est partout, y compris dans les jouets. Mais pour le sénateur Steve Padilla, les chatbots d’IA seraient potentiellement dangereux pour les enfants. Si pratique soit-elle, l’intelligence artificielle n’est pas sans danger, particulièrement chez les plus jeunes. On a par exemple pu voir un adolescent demander à ChatGPT des conseils pour tuer son ami, ce qui a provoqué l’intervention des forces de l’ordre. Dans ce cadre, plusieurs entreprises d’IA prennent des mesures pour protéger les plus jeunes. Character.AI va, par exemple, interdire son chatbot aux enfants. De son côté, Meta s’apprête à refondre son IA afin de mieux protéger les mineurs. Crédit photo : Unsplash Et pourtant, cela n’empêche pas certains fabricants de jouets d’intégrer l’IA dans leurs produits. On pense par exemple à Mattel, le fabricant de la célèbre poupée Barbie, qui s’apprête à intégrer ChatGPT dans ses jouets. Intelligence artificielle : « Nos enfants ne peuvent pas servir de cobayes à la Big Tech » Mais pour Steve Padilla, sénateur américain, les chatbots d’IA n’ont pas leur place dans les jouets pour enfants. Ce dernier estime en effet que les plus jeunes seraient susceptibles d’avoir des « interactions dangereuses avec l’IA ». Dans ce cadre, le sénateur souhaite interdire leur fabrication et leur vente pour une période de quatre ans. « Les chatbots et autres outils d’IA pourraient devenir des éléments centraux de nos vies à l’avenir, mais les dangers qu’ils présentent aujourd’hui exigent que nous prenions des mesures audacieuses pour protéger nos enfants », déclare Steve Padilla. « Nos réglementations de sécurité concernant ce type de technologie en sont encore à leurs balbutiements et devront évoluer aussi rapidement que les capacités de cette technologie », ajoute le sénateur. « Suspendre la vente de ces jouets intégrant des chatbots nous donne le temps nécessaire pour élaborer des lignes directrices et un cadre de sécurité appropriés […] Nos enfants ne peuvent pas servir de cobayes à la Big Tech pour ses expérimentations ». Il est vrai que certains comportements inquiétants impliquant un chatbot intégré dans un jouet ont déjà été rapportés. Un ours en peluche doté d’un chatbot intégré, baptisé Kumma, serait par exemple susceptible de parler d’allumettes, de couteaux ou de sujets sexuels. Source : techcrunch La rédaction vous conseille : Character.AI : l’entreprise d’IA va interdire son chatbot aux mineurs Mattel : le célèbre fabricant de poupées Barbie va intégrer ChatGPT dans ses jouets Intelligence artificielle : de plus en plus de jeunes considèrent l’IA comme une amie, selon cette étude Article précédent Tesla est à nouveau accusée d’être impliquée dans un accident mortel janvier 7, 2026 Article suivant OpenAI lance ChatGPT Health, un assistant médical qui ne remplacera pas votre médecin janvier 8, 2026