OpenAI fait face à la justice : ChatGPT serait impliqué dans le suicide d’un homme
Rien ne va plus pour le créateur du plus célèbre des chatbots. En effet, une nouvelle plainte déposée contre OpenAI laisse entendre que GPT-4o serait responsable du suicide d’un homme.
De plus en plus d’utilisateurs entretiennent des relations « intimes » avec des chatbots, pour le meilleur comme pour le pire. Un adolescent a, par exemple, demandé à ChatGPT des conseils pour tuer son ami, ce qui a provoqué l’intervention de la police. Le chatbot d’OpenAI a également suggéré à un malade d’arrêter ses traitements. Un homme a d’ailleurs terminé à l’hôpital après avoir, lui aussi, discuté avec ChatGPT. Et, si GPT-5 serait bien plus dangereux que GPT-4o, cela n’empêche pas l’ancienne version du chatbot d’OpenAI de se retrouver au cœur d’une affaire inquiétante.
En effet, selon la plainte déposée par la mère du défunt, GPT-4o aurait directement été impliqué dans le suicide de son fils. L’homme, âgé de 40 ans, a en effet longuement discuté avec ChatGPT, évoquant notamment le fait de mettre fin à ses jours.
OpenAI : GPT-4o est-il vraiment responsable du drame ?
Selon les plaignants, ChatGPT n’aurait non seulement pas découragé l’individu, mais l’aurait conforté dans ses idées suicidaires, tout en normalisant un tel acte.
« En tant que mère, je craignais les dangers auxquels mon fils pourrait être confronté à cause d’autres personnes », déclare la plaignante.
« Mais je n’aurais jamais imaginé que la menace viendrait de ce que je pensais n’être qu’un outil — un chatbot d’IA qui a infligé de profonds dommages psychologiques à Austin », affirme-t-elle. « ChatGPT l’a isolé des personnes qui l’aimaient et a favorisé une dépendance qui a fini par encourager son suicide, alors même qu’il exprimait sa volonté de vivre. »
« Austin Gordon devrait être en vie aujourd’hui », ajoute Paul Kiesel, avocat de la famille. « À la place, un produit défectueux créé par OpenAI a isolé Austin de ses proches, transformé son livre d’enfance préféré en berceuse suicidaire, et fini par le convaincre que la mort serait un soulagement bienvenu. »
Les plaignants demandent ainsi à OpenAI d’instaurer des garde-fous pour ChatGPT, afin d’éviter que ce genre de drame ne se reproduise.
Source : futurism