PaperGeek, actu geek et high tech

Actu geek

  •  Tendances
  • Codes secrets Netflix
  • Disney Plus
  • Xbox Series X
  • PS5
  • News
    • Apps et Logiciels
      • Mac
      • Mobile
      • PC
    • Bons plans
    • Culture Geek
    • Guide d’achat
    • Hardware
    • Insolite
    • Jeux video
    • Mobilité
    • Objets connectés
    • Opérateurs télécom
    • Sécurité
    • Science
    • Sport
    • Transport
    • Web
  • Comment faire
Accueil / Apps et Logiciels / OpenAI fait face à la justice : ChatGPT serait impliqué dans le suicide d’un homme

OpenAI fait face à la justice : ChatGPT serait impliqué dans le suicide d’un homme

Par David Laurent le 13 janvier 2026

Rien ne va plus pour le créateur du plus célèbre des chatbots. En effet, une nouvelle plainte déposée contre OpenAI laisse entendre que GPT-4o serait responsable du suicide d’un homme.

De plus en plus d’utilisateurs entretiennent des relations « intimes » avec des chatbots, pour le meilleur comme pour le pire. Un adolescent a, par exemple, demandé à ChatGPT des conseils pour tuer son ami, ce qui a provoqué l’intervention de la police. Le chatbot d’OpenAI a également suggéré à un malade d’arrêter ses traitements. Un homme a d’ailleurs terminé à l’hôpital après avoir, lui aussi, discuté avec ChatGPT. Et, si GPT-5 serait bien plus dangereux que GPT-4o, cela n’empêche pas l’ancienne version du chatbot d’OpenAI de se retrouver au cœur d’une affaire inquiétante.

ChatGPT
Crédit photo : Unsplash

En effet, selon la plainte déposée par la mère du défunt, GPT-4o aurait directement été impliqué dans le suicide de son fils. L’homme, âgé de 40 ans, a en effet longuement discuté avec ChatGPT, évoquant notamment le fait de mettre fin à ses jours.

OpenAI : GPT-4o est-il vraiment responsable du drame ?

Selon les plaignants, ChatGPT n’aurait non seulement pas découragé l’individu, mais l’aurait conforté dans ses idées suicidaires, tout en normalisant un tel acte.

« En tant que mère, je craignais les dangers auxquels mon fils pourrait être confronté à cause d’autres personnes », déclare la plaignante.

« Mais je n’aurais jamais imaginé que la menace viendrait de ce que je pensais n’être qu’un outil — un chatbot d’IA qui a infligé de profonds dommages psychologiques à Austin », affirme-t-elle. « ChatGPT l’a isolé des personnes qui l’aimaient et a favorisé une dépendance qui a fini par encourager son suicide, alors même qu’il exprimait sa volonté de vivre. »

« Austin Gordon devrait être en vie aujourd’hui », ajoute Paul Kiesel, avocat de la famille. « À la place, un produit défectueux créé par OpenAI a isolé Austin de ses proches, transformé son livre d’enfance préféré en berceuse suicidaire, et fini par le convaincre que la mort serait un soulagement bienvenu. »

Les plaignants demandent ainsi à OpenAI d’instaurer des garde-fous pour ChatGPT, afin d’éviter que ce genre de drame ne se reproduise.

Source : futurism

La rédaction vous conseille :

  1. GPT-5 : face à la grogne des utilisateurs, OpenAI va rendre son IA plus “amicale”
  2. OpenAI : GPT-5 serait bien plus dangereux que GPT-4o, selon cette nouvelle étude
  3. GPT-4o : OpenAI ressuscite son IA face à la grogne des utilisateurs
Article précédent

Apple va utiliser Gemini de Google pour « sauver » Siri

janvier 13, 2026

Siri
Article suivant

Grok : les deepfakes sexuels du chatbot d’Elon Musk bientôt interdits au Royaume-Uni

Grok
Notifications

Abonnez-vous pour recevoir les notifications sur smartphone, tablette ou pc selon vos préférences !

Newsletter

Abonnez-vous et recevez nos dernières actus & bons plans directement dans votre boite email.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Barre latérale 1

Derniers articles
  • Intelligence artificielle : des chercheurs confient les codes nucléaires à une IA, le résultat est inquiétan
    Intelligence artificielle : des chercheurs confient les codes nucléaires à une IA, le résultat est inquiétan
    Des chercheurs ont fictivement confié la décision de lancer une attaque nucléaire à plusieurs IA. Certaines d’entre elles, dont le GPT-4 d’OpenAI, ont recommandé l’utilisation de l’arme atomique. L’intelligence artificielle…

    Il y a 22 heures et 22 minutes

    Apps et Logiciels, Sécurité

  • OpenAI : le Canada demande des comptes au créateur de ChatGPT
    OpenAI : le Canada demande des comptes au créateur de ChatGPT
    Le gouvernement canadien vient de convoquer des responsables d’OpenAI. Le créateur de ChatGPT est accusé de ne pas avoir prévenu les forces de l’ordre dans le cadre d’une fusillade de…

    Il y a 1 jour et 22 heures

    Apps et Logiciels, Sécurité, Web

  • Discord : face à la grogne des utilisateurs, la plateforme freine le déploiement de la vérification faciale
    Discord : face à la grogne des utilisateurs, la plateforme freine le déploiement de la vérification faciale
    Quelques semaines plus tôt, Discord annonçait l’arrivée de la vérification d’identité pour pouvoir accéder à l’ensemble du contenu de la plateforme. Et pourtant, il semblerait que l’entreprise ait pris conscience…

    Il y a 2 jours et 22 heures

    Apps et Logiciels, Réseaux sociaux

  • DeepSeek : Anthropic accuse l’entreprise chinoise d’avoir utilisé Claude pour entraîner son IA
    DeepSeek : Anthropic accuse l’entreprise chinoise d’avoir utilisé Claude pour entraîner son IA
    Anthropic, bien connue pour son chatbot Claude, vient de pointer du doigt trois entreprises chinoises. Celle-ci accuse ainsi DeepSeek, Moonshot AI et MiniMax d’avoir créé des milliers de faux comptes…

    Il y a 3 jours et 22 heures

    Apps et Logiciels, Web

Newsletter Papergeek

Inscrivez-vous et recevez gratuitement nos meilleures actus !

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

© 2026 papergeek.fr : actus geek et high tech

  • Préférences cookies
  • Nous Contacter
  • Mentions légales
  • confidentialité
  • CGU
loading gif ×
Notifications

Recevoir les notifications

Réglages

Actualité
Bon plan