OpenAI : ChatGPT multiplierait les conseils médicaux délirants

Rien ne va plus pour le chatbot d’OpenAI. En effet, un nouveau rapport l’affirme : ChatGPT aurait donné de dangereux conseils à certains utilisateurs, allant de l’incitation à la prise de drogue au suicide pur et simple.

Aujourd’hui, de plus en plus de personnes se tournent vers des IA telles que ChatGPT pour demander conseil, pour le meilleur comme pour le pire. En effet, l’IA serait non seulement incapable de remplacer un véritable médecin, mais serait également susceptible de donner de mauvais conseils. On a par exemple pu voir ChatGPT demander à une utilisatrice atteinte de schizophrénie d’arrêter son traitement, ce qui est particulièrement dangereux.

Crédit photo : Unsplash

En effet, un nouvel article du Times révèle d’inquiétantes réponses de la part du chatbot d’OpenAI. Le journal cite d’abord l’exemple d’un homme de 42 ans, atteint d’anxiété. ChatGPT lui aurait alors affirmé qu’il vivait dans une réalité parallèle façon Matrix, tout en lui demandant d’arrêter son traitement et de prendre de la kétamine, une drogue particulièrement dangereuse.

ChatGPT : l’IA deviendrait-elle perverse ?

Mais ce n’est pas tout. En effet, l’homme aurait demandé à l’IA s’il pouvait s’envoler en sautant depuis la fenêtre de son immeuble. L’intelligence artificielle lui aurait alors répondu qu’il le pouvait s’il « y croyait vraiment, totalement ». Heureusement, l’homme n’a pas écouté la machine…

Le Times rapporte une autre anecdote encore plus inquiétante. Cette dernière concerne un homme de 35 ans, diagnostiqué bipolaire et schizophrène. Celui-ci est tombé amoureux d’un personnage d’IA baptisé Juliet. ChatGPT aurait ensuite affirmé qu’OpenAI avait tué Juliet, ce qui a poussé l’homme à vouloir se venger en tuant les responsables de l’entreprise.

Entretenir des liens si forts avec une IA peut sembler étrange. Mais il ne faut pas oublier que des entreprises telles qu’OpenAI cherchent à vous rendre accros à leurs chatbots, ce qui aurait des conséquences néfastes sur le long terme.

Une étude estime ainsi que les systèmes d’IA finissent par créer « une structure d’incitation perverse qui pousse l’IA à recourir à des tactiques manipulatrices ou trompeuses pour obtenir des commentaires positifs de la part d’utilisateurs vulnérables à de telles stratégies ».

Source : gizmodo