OpenAI veut proposer une version de ChatGPT pour les mineurs Par David Laurent le 17 septembre 2025 Le créateur de ChatGPT veut aller toujours plus loin dans la protection des plus jeunes. OpenAI pourrait ainsi bientôt analyser les conversations afin de déterminer l’âge de l’utilisateur, dans le but de lui proposer une expérience adaptée à son âge. Si pratique soit-elle, l’intelligence artificielle n’est pas sans dangers. On a, par exemple, pu voir un homme finir à l’hôpital après avoir discuté avec ChatGPT. Mais certaines autorités s’inquiètent pour la santé mentale des plus jeunes. Un procureur a, par exemple, accusé l’IA de Meta d’être nocive pour les enfants. Dans ce cadre, certaines entreprises d’IA n’ont pas tardé à réagir. Meta va, par exemple, refondre son IA pour protéger les plus jeunes. De son côté, OpenAI pourrait bientôt lancer un système de contrôle parental. Crédit photo : Unsplash Mais ce n’est pas tout. En effet, le créateur de ChatGPT veut aller encore plus loin dans ce domaine. Ainsi, dans le cas où l’IA détecterait que son utilisateur a moins de 18 ans, l’entreprise basculerait la conversation vers un chatbot dédié aux plus jeunes. ChatGPT : l’IA sera-t-elle en mesure d’estimer votre âge ? Mais ici, il ne s’agira pas d’une vérification d’âge par le biais d’une carte de crédit ou d’une pièce d’identité. Du moins, pas immédiatement. En effet, l’IA devrait être en mesure de distinguer entre un mineur et un utilisateur adulte d’elle-même. Si l’IA n’arrive pas à se décider, l’utilisateur sera automatiquement considéré comme mineur, et devra alors prouver son âge en présentant une pièce d’identité. « Par exemple, le comportement par défaut de notre modèle ne mènera pas à beaucoup de conversations de flirt, mais si un utilisateur adulte le demande, il devrait l’obtenir. Pour un exemple beaucoup plus difficile, le modèle, par défaut, ne devrait pas fournir d’instructions sur la manière de se suicider », écrit OpenAI. « Mais si un utilisateur adulte demande de l’aide pour écrire une histoire fictive qui décrit un suicide, le modèle devrait l’aider pour cette demande. “Traiter nos utilisateurs adultes comme des adultes” est la façon dont nous parlons de cela en interne, en étendant la liberté aussi loin que possible sans causer de tort ou saper la liberté de quiconque. »” Source : gizmodo La rédaction vous conseille : OpenAI sonne l’alerte : ChatGPT n’a rien d’un psychiatre, et peut même aggraver les choses ChatGPT Search : le “Google killer” d’OpenAI est désormais disponible gratuitement ChatGPT Search : le moteur de recherche d’OpenAI commettrait de lourdes erreurs Article précédent TikTok bientôt sauvé aux États-Unis ? L’administration Trump annonce un accord septembre 16, 2025