Vidéo : ivre, l’assistant d’Amazon propose par erreur du porno à un enfant

Dans une vidéo, on peut voir un enfant demander à Alexa, l’assistant vocal d’Amazon, de jouer de la musique. Mais celui-ci, pour une raison mystérieuse, ne comprend pas qu’il a affaire à un enfant et lui propose immédiatement de la pornographie devant ses parents, visiblement choqués. La vidéo, virale, a suscité une réponse de la part d’Amazon qui affirme travailler à résoudre ce problème. 

La scène se passe aux Etats-Unis, et implique l’assistant vocal d’Amazon, Alexa. Celui-ci, très similaire à Siri, permet normalement de demander de jouer de la musique, la météo du jour, les horaires de cinéma, ou encore de contrôler les lumières de la maison si celle-ci sont connectées. Les parents du bambin derrière la caméra semblent totalement attendris par leur enfant qui fait des efforts pour bien parler à l’assistant.

L’enfant demande “Play ‘digger digger'” (Joue ‘digger digger’) mais la réponse d’Alexa va vite changer l’ambiance. L’assistant d’Amazon ne comprend pas du tout qu’il a affaire à un enfant, et lui propose sans ciller du porno, devant ses parents ébahis, et un père qui crie immédiatement “Alexa, stop !” pour tenter d’arrêter la machine en cours de route. L’enfant, lui, ne comprend heureusement pas les allusions aux godemichet d’Alexa.

La vidéo est vite devenue virale, à tel point que le service presse d’Amazon s’est fendu d’une réaction officielle. L’entreprise admet en creux le problème, mais dit avoir immédiatement supprimé l’association question / résultat que l’on pouvait voir dans la vidéo. Et dit travailler sur de nouveaux mécanismes pour prévenir ce genre de problème :

Le problème a été résolu, et nous travaillons à la mise en place de nouvelles restrictions pour empêcher ce genre de choses d’arriver à l’avenir. Nous avons également contacté le client pour nous excuser.

Vous pouvez voir toute la scène dans la vidéo qui suit. En suivant, on vous a mis également l’une des toutes premières vidéo qui arrivent dans youtube lorsque l’ont tape “digger digger” (il semble probable qu’il voulait entendre la musique d’un dessin animé…). Et effectivement, le résultat est assez éloigné des propos obscènes d’Alexa ! De quoi nous rappeler qu’il vaut mieux ne pas laisser les enfants sans surveillance avec ce genre d’objet connecté…