iOS 26 : Apple va bloquer votre FaceTime en cas de nudité

Disponible depuis peu en version bêta pour les développeurs, iOS 26 affiche une fonctionnalité inattendue. En effet, le prochain système d’exploitation pour mobile d’Apple va vous permettre d’activer une fonctionnalité bien particulière.

Si un bug découvert dans iOS mettrait en danger vos applications favorites, cela n’empêche pas Apple de mettre régulièrement à jour son système d’exploitation. Ainsi, après avoir lancé iOS 18 l’année dernière, la marque à la pomme se prépare à lancer iOS 26, celui-ci étant actuellement en version bêta réservée aux développeurs. Mais l’un d’entre eux, qui se fait appeler @iDeviceHelpus sur X, a fait une découverte surprenante.

Crédit photo : Unsplash

En effet, en fouillant dans le prochain système d’exploitation d’Apple, l’utilisateur a mis la main sur une fonctionnalité bien particulière dédiée à FaceTime. Cette dernière, baptisée « Avertissement de contenu sensible », bloque automatiquement la vidéo d’un appel si l’IA détecte que l’un des appelants est nu.

iOS 26 : toujours plus d’IA pour Apple ?

« Détectez les photos et vidéos de nudité avant qu’elles ne soient visionnées sur votre appareil et recevez des conseils pour vous aider à faire un choix sûr. Apple n’a pas accès aux photos ou vidéos. », précise Apple. Ainsi, en cas de nudité détectée, un message d’alerte apparaît pour avertir l’utilisateur concerné.

Ce dernier pourra alors lire le message suivant : « L’audio et la vidéo sont mis en pause car vous montrez peut-être quelque chose de sensible. Si vous vous sentez mal à l’aise, vous devriez mettre fin à l’appel. » Libre alors à l’utilisateur de décider de poursuivre l’appel ou non.

À lire > Siri : Apple tente de justifier son retard en matière d’IA

La détection de nudité est effectuée par l’intelligence artificielle. Dans ce cadre, Apple affirme n’avoir aucun accès aux photos ou aux vidéos des utilisateurs. « La sécurité des communications utilise l’apprentissage automatique sur l’appareil pour analyser les pièces jointes photo et vidéo et déterminer si une photo ou une vidéo semble contenir de la nudité », écrit l’entreprise. « Comme les photos et les vidéos sont analysées sur l’appareil de votre enfant, Apple ne reçoit aucune indication indiquant que de la nudité a été détectée et n’a donc pas accès aux photos ou vidéos. »

Source : engadget