ChatGPT : OpenAI va analyser vos conversations et contacter la police en cas de danger

Comme nous avons pu le constater à de multiples reprises, l’intelligence artificielle n’est pas sans danger. Dans ce cadre, OpenAI vient d’annoncer qu’elle surveillerait les conversations des utilisateurs via ChatGPT, et reporterait certains comportements dangereux à la police.

L’ancien PDG de Google pense que l’IA est capable de « tuer ou blesser ». Et, si ces allégations semblent exagérées, il ne faut pas oublier que certains utilisateurs se sont retrouvés dans des situations particulièrement dangereuses après avoir discuté avec ChatGPT. Le chatbot d’OpenAI a par exemple suggéré à une personne malade d’arrêter ses traitements. Un autre utilisateur a même terminé à l’hôpital après avoir discuté avec ChatGPT.

Crédit photo : Unsplash

Face à ces multiples scandales, OpenAI n’a pas tardé à réagir, en annonçant notamment que ChatGPT n’a rien d’un psychiatre. Mais ce n’est pas tout. En effet, l’entreprise de Sam Altman vise désormais les comportements dangereux, tels que la volonté de nuire à autrui. Si l’entreprise détecte ce genre de comportement, elle est désormais susceptible de transmettre le dossier aux forces de l’ordre.

OpenAI : la vie privée des utilisateurs est-elle menacée ?

« Lorsque nous détectons que des utilisateurs prévoient de nuire à autrui, nous orientons leurs conversations vers des circuits spécialisés où elles sont examinées par une petite équipe formée à nos politiques d’utilisation et autorisée à agir, y compris en bannissant des comptes », écrit le créateur de ChatGPT. « Si les réviseurs humains déterminent qu’il s’agit d’une menace imminente de préjudice physique grave envers autrui, nous pouvons la transmettre aux forces de l’ordre. »

OpenAI va donc chercher à détecter des signes montrant une volonté de suicide, mais également de préméditation de meurtre ou de violence envers autrui. Ainsi, si une personne utilise ChatGPT « pour promouvoir le suicide ou l’automutilation, développer ou utiliser des armes, blesser autrui ou détruire des biens, ou s’engager dans des activités non autorisées violant la sécurité d’un service ou d’un système », l’entreprise se réserve le droit de contacter la police.

Toutefois, OpenAI précise qu’elle ne contactera pas les forces de l’ordre « afin de respecter la vie privée des personnes, étant donné la nature particulièrement intime des interactions avec ChatGPT ».

Source : futurism