Face à la prolifération inquiétante des deepfakes, ces vidéos ou voix synthétiques créées par intelligence artificielle, l’industrie technologique dévoile aujourd’hui des solutions innovantes pour protéger les entreprises et les particuliers. De la détection en temps réel sur smartphone aux navigateurs intelligents, ces technologies émergentes promettent de restaurer la confiance dans nos interactions numériques.
Sommaire
La menace deepfake s’intensifie et touche désormais le grand public
L’évolution rapide de l’IA générative a transformé les deepfakes en armes redoutables entre les mains d’escrocs cherchant à soutirer de l’argent ou à usurper des identités. Un cas récent illustre parfaitement cette menace : une personne âgée de 93 ans a reçu un appel téléphonique utilisant une voix clonée prétendant être un proche ayant eu un accident.
« C’est moi, maman… J’ai eu un accident », affirmait la voix synthétique. Lorsque la personne a demandé où se trouvait l’appelant, l’imposteur généré par IA a nommé un hôpital spécifique. Heureusement, c’est la petite-fille de la personne âgée qui a répondu à l’appel. Suspicieuse, elle a immédiatement raccroché et contacté directement le proche prétendument accidenté, découvrant ainsi qu’il s’agissait d’une tentative d’arnaque.
« Ce n’est pas la première fois que des escrocs appellent grand-mère », témoigne Debby Bodkin « C’est quotidien ».
Ces arnaques téléphoniques par deepfake suivent généralement le même schéma : inciter les victimes à payer pour des soins médicaux ou d’autres urgences fictives. Mais l’ampleur du phénomène prend une dimension inquiétante, comme l’illustre ce cas récent à Hong Kong où un employé d’une multinationale a été trompé par des avatars IA de ses collègues lors d’une vidéoconférence, le conduisant à virer 26 millions de dollars à des escrocs.
Des solutions technologiques innovantes arrivent sur le marché
Face à cette menace grandissante, plusieurs entreprises ont développé des technologies de détection de deepfakes accessibles au grand public :
- Honor Magic7 : ce smartphone chinois présenté en janvier 2025 intègre un détecteur de deepfake alimenté par IA, capable de signaler en temps réel si l’interlocuteur utilise l’intelligence artificielle lors d’un appel vidéo.
- Surf Security : cette startup britannique a lancé fin 2024 un navigateur internet capable d’alerter l’utilisateur lorsqu’une voix ou une vidéo semble avoir été générée par IA. Initialement destiné aux entreprises, ce navigateur pourrait bientôt être disponible pour le grand public.
- Attestiv : cette entreprise propose déjà une formule gratuite pour les particuliers, qui compte des milliers d’utilisateurs.
- Pindrop : spécialisée dans la détection de fraudes vocales, cette société collabore actuellement avec des opérateurs téléphoniques et prévoit une annonce majeure d’ici six mois, visant à « protéger le consommateur final », selon Vijay Balasubramaniyan, responsable de l’entreprise.
Les limites des systèmes de détection actuels
Malgré ces avancées prometteuses, une étude récente menée conjointement par le CSIRO (l’agence scientifique nationale australienne) et l’Université Sungkyunkwan de Corée du Sud révèle des failles critiques dans les technologies de détection existantes. Après avoir évalué 16 détecteurs de pointe, les chercheurs ont constaté qu’aucun ne pouvait identifier de manière fiable les deepfakes dans des conditions réelles.
Le Dr. Sharif Abuadbba, expert en cybersécurité au CSIRO, souligne que la disponibilité croissante de l’IA générative a alimenté la prolifération rapide des deepfakes, qui sont désormais moins coûteux et plus faciles à créer que jamais.
« Les deepfakes sont de plus en plus trompeurs et capables de propager la désinformation, il y a donc un besoin urgent de solutions plus adaptables et résilientes pour les détecter », explique le Dr. Abuadbba « À mesure que les deepfakes deviennent plus convaincants, la détection doit se concentrer sur le sens et le contexte plutôt que sur l’apparence seule ».
Les personnes âgées particulièrement vulnérables
Un aspect souvent négligé dans les analyses existantes concerne la vulnérabilité particulière des personnes âgées face à ces nouvelles formes d’escroquerie. Comme le souligne Vijay Balasubramaniyan, les seniors constituent une cible privilégiée pour les appels frauduleux utilisant des deepfakes.
Plusieurs facteurs expliquent cette vulnérabilité accrue :
- Une moindre familiarité avec les technologies récentes et leurs limites
- Une tendance à faire davantage confiance aux communications téléphoniques traditionnelles
- Une préoccupation naturelle pour le bien-être de leurs proches, exploitée par les scénarios d’urgence fictifs
- Une disponibilité plus grande pour répondre aux appels téléphoniques
Cette vulnérabilité spécifique nécessite des solutions adaptées, comme des applications de filtrage d’appels spécialement conçues pour les téléphones des seniors, ou des campagnes de sensibilisation ciblées.
Vers une normalisation des outils de détection
Siwei Lyu, professeur d’informatique à l’université publique de Buffalo (État de New York), offre une perspective rassurante sur l’avenir de cette problématique : « Les deepfakes vont devenir comme les spams », ces courriers indésirables qui ont été le cauchemar des premiers internautes mais sont aujourd’hui largement maîtrisés grâce à l’efficacité des logiciels de tri.
« Ces algorithmes de détection seront comme les filtres anti-spam dans nos logiciels de messagerie », prédit le professeur Lyu, tout en reconnaissant que « nous n’en sommes pas encore là ».
L’intégration de ces technologies de détection directement dans les appareils grand public, comme le fait Honor avec son smartphone Magic7, marque une étape importante vers la normalisation de ces outils de protection. À terme, nous pourrions voir ces fonctionnalités intégrées nativement dans les systèmes d’exploitation des smartphones, des ordinateurs et des assistants vocaux, offrant une protection transparente contre les deepfakes dans notre vie numérique quotidienne.
Laisser un commentaire