Character.AI : l’entreprise d’IA va interdire son chatbot aux mineurs Par David Laurent le 30 octobre 2025 Les chatbots personnalisés de Character.AI pour les enfants, c’est bientôt terminé. En effet, suite à de nombreux problèmes, l’entreprise d’IA a décidé d’interdire l’accès à son application aux mineurs. Si l’intelligence artificielle peut s’avérer très pratique dans de nombreuses situations, celle-ci n’est pas sans danger. On a par exemple pu voir un homme terminer à l’hôpital après avoir discuté avec ChatGPT. En effet, certains utilisateurs, et notamment les plus jeunes ou les plus fragiles, peuvent afficher une confiance aveugle en l’IA. Character.AI propose à ses utilisateurs de discuter avec des IA se faisant passer pour différentes personnalités, dont des docteurs et des psychiatres. Crédit photo : Unsplash Mais la maison mère de Character.AI, Character Technologies, s’est retrouvée face à la justice. En effet, des familles ont déposé plainte contre l’entreprise, affirmant que leurs enfants auraient tenté de se suicider après avoir discuté avec l’un des chatbots proposés par Character.AI. Ainsi, tout comme Meta, Character.AI a été accusée d’être nocive pour les enfants. Character.AI : le gouvernement américain serre la vis Face à ce constat, Character.AI a donc décidé d’interdire l’accès à sa plateforme pour les moins de 18 ans. Cette interdiction devrait entrer en vigueur à compter du 25 novembre prochain. Cette initiative intervient après que deux sénateurs américains, Josh Hawley et Richard Blumenthal, ont déposé un projet de loi visant à contraindre les entreprises d’IA à vérifier l’âge des utilisateurs. Dans ce cadre, Josh Hawley a d’ailleurs déclaré que « Les chatbots d’IA représentent une menace sérieuse pour nos enfants ». Quoi qu’il en soit, Character.AI a tenu à faire le point sur la situation, en soulignant notamment que l’entreprise rappelle régulièrement à ses utilisateurs que les personnages proposés sur la plateforme sont purement fictifs. À lire > OpenAI : ils frôlent la noyade après avoir demandé des informations à ChatGPT « Les personnages créés par les utilisateurs sur notre site sont destinés à divertir, et nous affichons des avertissements clairs dans chaque discussion rappelant qu’un personnage n’est pas une vraie personne et que tout ce qu’il dit doit être considéré comme fictif », déclare le porte-parole de l’entreprise. « Nous investissons énormément de ressources dans notre programme de sécurité et continuons à développer nos dispositifs de protection, notamment avec notre récente annonce visant à supprimer la possibilité pour les moins de 18 ans d’avoir des conversations ouvertes sur la plateforme. Plusieurs des personnages mentionnés par le BIJ ont déjà été retirés de l’expérience pour mineurs ou supprimés du site dans son ensemble, conformément à nos politiques ». Source : Gizmodo La rédaction vous conseille : Un procureur accuse l’IA de Meta d’être nocive pour les enfants OpenAI veut proposer une version de ChatGPT pour les mineurs Cette entreprise d’IA permet aux familles de défunts de rendre un dernier hommage aux proches disparus Article précédent Sora 2 : OpenAI face à la justice à cause de cette fonctionnalité essentielle octobre 30, 2025