Intelligence artificielle : une IA dédiée à la détection de plagiat accuse à tort des étudiants

Voilà une affaire bien embarrassante. Une IA servant à détecter les projets recopiés se trompe et accuse des dizaines d’étudiants de plagiat.

L’intelligence artificielle est désormais partout. Nvidia intègre l’IA dans des voitures, tandis qu’une autre est spécialisée dans le recouvrement de dettes. De plus, selon l’un des réalisateurs des films Marvel, l’IA pourrait bientôt être capable de réaliser des longs-métrages à la demande. Mais ici, l’IA se permet d’accuser à tort des étudiants.

Crédit photo : Unsplash

Une étudiante a ainsi été accusée à tort d’avoir utilisé l’intelligence artificielle pour tricher dans un devoir. La victime a ensuite dû se justifier. L’étudiante en dernière année à l’université de Californie à Davis a vu son devoir signalé par le logiciel de vérification de plagiat Turnitin, qui n’est visiblement pas au point.

Intelligence artificielle : l’IA a toujours besoin d’une vérification humaine

Une histoire similaire concerne William Quarterman, étudiant en histoire. Son professeur l’a accusé à tort de plagiat. Ce dernier a utilisé l’outil de détection d’IA GPTZero. Il a, lui aussi, dû longuement se justifier auprès de son établissement. Dépité, l’étudiant déclare : “Lorsque vous postulez à une école de droit, vous êtes soumis à une forte pression pour maintenir votre moyenne […] Il n’est pas agréable de devoir comprendre les politiques complexes de l’école en matière d’intégrité académique tout en suivant des cours.”

Il semblerait ainsi que des outils tels que Turnitin et GPTZero ne soient pas très efficaces dans ce pour quoi ils ont été conçus. Des tests effectués par le site Futurism ont montré que GPTZero était loin d’être à la hauteur. Même l’application de détection du fabricant de ChatGPT, OpenAI, n’a pas réussi à distinguer de manière fiable un texte écrit par un humain d’un texte généré par l’IA.

L’éditeur de Turnitin admet d’ailleurs sur son site web que, bien qu’il soit censé être précis à 98 %, il existe des “faux positifs”. OpenAI indique également que son propre outil “n’est pas toujours précis” et “ne devrait pas être le seul élément de preuve pour décider si un document a été généré par l’IA“.

Source : futurism