Sécurité numérique : les iPhone ne sont plus à l’abri des deepfakes

Image d'illustration. DeepfakeADN
Les experts recommandent vigilance et mises à jour, alors que l’essor des technologies deepfake transforme la fraude en menace sophistiquée sur iOS.
- Un outil sophistiqué peut injecter des vidéos deepfake dans les flux des applications bancaires sur iOS, ciblant surtout les iPhone jailbreakés.
- Cette technique permet de tromper la reconnaissance faciale et de commettre des fraudes d’identité ou d’accéder à des informations confidentielles.
- Les experts recommandent d’éviter le jailbreak, de maintenir ses applications à jour et de renforcer l’authentification face à l’essor des deepfakes.
La menace deepfake s’invite sur iOS
Alors que le « jailbreak » de l’iPhone continue de séduire certains adeptes en quête de personnalisation, une découverte récente devrait refroidir les ardeurs des plus téméraires. Des chercheurs en cybersécurité chez iProov, une entreprise spécialisée dans l’authentification biométrique, ont mis au jour un outil particulièrement sophistiqué, capable d’injecter de la vidéo « deepfake » directement dans les flux des applications bancaires sur iOS. En pratique, cette technique ouvre la porte à une fraude d’identité d’un tout nouveau genre.
Quand l’intelligence artificielle s’empare du flux vidéo
L’outil malveillant vise spécifiquement les appareils fonctionnant sous iOS 15 ou version ultérieure et ayant été débridés. Son principe : exploiter un serveur spécial, appelé RPTM, pour relier à distance l’ordinateur du pirate à l’iPhone ciblé. Ainsi, le lien entre la caméra du téléphone et certaines applications est détourné : au lieu de diffuser la véritable image captée par l’appareil photo, c’est une vidéo générée par intelligence artificielle qui est injectée à la place. Pendant ce temps, pour l’utilisateur, tout paraît normal ; il continue à voir le flux réel via son application caméra.
Des risques accrus pour la sécurité bancaire et l’identité numérique
Cette manipulation pourrait permettre à un cybercriminel de tromper des applications reposant sur la reconnaissance faciale, en particulier celles des banques. L’application pense alors interagir avec son véritable propriétaire en temps réel, alors qu’il ne s’agit que d’une simulation élaborée. Les conséquences pourraient être graves : ouverture frauduleuse de comptes, accès à des informations confidentielles… La création d’identités fictives devient également possible grâce à cet outil.
Dans ce contexte inquiétant, voici quelques bonnes pratiques que recommandent désormais les experts :
- Éviter le jailbreak qui expose à ces nouvelles attaques.
- S’assurer que ses applications bancaires sont bien à jour.
- Sensibiliser autour des risques liés aux technologies deepfake.
L’enjeu d’une authentification toujours plus robuste
Selon le rapport signé iProov, ce nouvel outil trouverait son origine en Chine. Les entreprises du secteur financier sont ainsi sommées de renforcer leurs solutions : tester non seulement si le visage présenté est « vivant », mais aussi s’il appartient réellement à la personne attendue. Plus que jamais, l’innovation technologique appelle donc vigilance et anticipation pour contrer des fraudes rendues possibles par l’essor fulgurant de l’IA.
