GPT-5 : OpenAI va lancer un système de contrôle parental Par David Laurent le 4 septembre 2025 La protection des plus jeunes semble être une priorité pour OpenAI. En effet, le créateur de ChatGPT vient d’annoncer de nouvelles mesures de sécurité, dont la possibilité pour les parents de vérifier les activités de leurs enfants. L’intelligence artificielle, si efficace soit-elle, n’est pas sans danger. Certains utilisateurs peuvent être impactés négativement dans certaines situations. On a par exemple vu un homme finir à l’hôpital après avoir discuté avec ChatGPT. Le chatbot d’OpenAI a par ailleurs été accusé d’avoir rendu fou un utilisateur. Dans ce cadre, plusieurs entreprises d’IA prennent des mesures de protection. Meta, par exemple, s’apprête à refondre son IA pour mieux protéger les plus jeunes. Crédit photo : Unsplash C’est donc au tour d’OpenAI de prendre des mesures drastiques pour protéger ses utilisateurs, et notamment les mineurs. Et pour cause : l’entreprise a dû faire face à la justice après qu’un adolescent a mis fin à ses jours, ce dernier ayant discuté de ses intentions avec ChatGPT. Le chatbot lui aurait même donné des conseils pour « réussir » son suicide. Les parents de l’adolescent ont donc porté plainte contre OpenAI pour homicide involontaire. OpenAI avait déjà introduit des garde-fous. L’entreprise d’IA analyse désormais certaines conversations et peut contacter la police en cas de danger imminent. Mais le créateur de ChatGPT veut aller encore plus loin et prévoit d’ajouter un système de contrôle parental pour GPT-5. OpenAI : des mesures insuffisantes ? « Nous avons récemment introduit un routeur en temps réel capable de choisir entre des modèles de chat efficaces et des modèles de raisonnement selon le contexte de la conversation », écrit OpenAI. « Nous commencerons bientôt à rediriger certaines conversations sensibles — par exemple lorsqu’un signe de détresse aiguë est détecté — vers un modèle de raisonnement comme GPT-5-thinking, afin qu’il puisse fournir des réponses plus utiles et bénéfiques, quel que soit le modèle initialement sélectionné par l’utilisateur. » Quoi qu’il en soit, ces mesures ne semblent pas suffire à l’avocat des plaignants, qui déclare : « OpenAI n’a pas besoin d’un comité d’experts pour déterminer que ChatGPT-4o est dangereux […] Ils le savaient le jour du lancement du produit, et ils le savent encore aujourd’hui. Et Sam Altman ne devrait pas se cacher derrière l’équipe de relations publiques de l’entreprise. Il devrait soit affirmer sans équivoque qu’il considère ChatGPT comme sûr, soit le retirer immédiatement du marché. » Source : techcrunch La rédaction vous conseille : OpenAI dévoile GPT-o1, une IA encore plus puissante que GPT-4o GPT-5 : face à la grogne des utilisateurs, OpenAI va rendre son IA plus “amicale” ChatGPT : OpenAI ne comprend pas pourquoi certains utilisateurs boudent GPT-5 Article précédent Siri : le nouveau moteur de recherche boosté à l’IA d’Apple pourrait sortir l’année prochaine septembre 4, 2025