Les (Deep)fake news : Des données récentes révèlent des écarts entre la perception et la réalité
Aujourd'hui, les "deepfakes" peuvent être si convaincants qu'ils conduisent souvent à des fraudes, des vols et des phishing à grande échelle.
Key Points
Comprendre l'écart critique entre la croyance des consommateurs en leur propre capacité à découvrir un "deepfake" et leur capacité à en repérer un parmi d'autres.
Pourquoi la confiance des consommateurs dans les contenus en ligne diminue rapidement, chutant de 71% au cours des six derniers mois en raison des "deepfakes".
Comment combler le fossé de la détection des deepfakes grâce à Human Risk Management.
L'IA générative (GenAI) alimente la prochaine vague d'innovation. Et la prochaine vague de tromperies. Si la GenAI peut nous apporter beaucoup, elle peut aussi apporter beaucoup aux acteurs malveillants qui profitent des internautes. C'est là qu'interviennent les "deepfakes".
Le rythme rapide des progrès de l'IA et l'accessibilité accrue des outils d'IA jouent un rôle important dans la présence croissante des "deepfakes". Alors que les premiers deepfakes étaient plus flagrants, la qualité et le réalisme que les acteurs de la menace peuvent désormais atteindre facilitent plus que jamais la manipulation des consommateurs.
Mimecast a interrogé 1 000 adultes américains afin d'explorer et de comprendre les perceptions des consommateurs à l'égard des deepfakes. Nos données mettent en lumière l'opinion des consommateurs sur leurs propres capacités de détection et la façon dont la prévalence croissante des deepfakes alimentés par l'IA érode la confiance.
Les consommateurs savent reconnaître un "deepfake" quand ils en voient un... Ou le savent-ils ?
Nos données le montrent :
52% des personnes interrogées déclarent avoir été confrontées à des contenus "deepfake".
64% sont assez ou très confiants dans leur capacité à en repérer un
Le revers de la médaille, une étude réalisée en 2025 qui a exposé des consommateurs à des contenus réels et à des contenus truqués a révélé que seuls 0,1% des participants pouvaient distinguer le vrai du faux.
Il existe un fossé critique entre la conviction des consommateurs quant à leur propre capacité à découvrir un "deepfake" et leur capacité à en distinguer un parmi d'autres.
Un tiers des Américains ne savent pas s'ils ont vu plus ou moins de "deepfakes" au cours des six derniers mois.
Au cours de la même période, la moitié d'entre eux (49%) estiment que leur capacité à identifier un "deepfake" s'est améliorée.
Les consommateurs sont largement convaincus qu'ils sauront reconnaître un "deepfake" lorsqu'ils en rencontreront un, mais en même temps, ils ne savent pas vraiment à quoi s'attendre. D'où la question suivante : les consommateurs savent-ils repérer un "deepfake" ? Les consommateurs savent-ils reconnaître un "deepfake" ? Ou supposent-ils simplement qu'ils seront capables d'en repérer un en se basant sur d'anciens témoignages ? Les données sont claires : nous avons besoin d'une meilleure formation de sensibilisation à la sécurité pour aider les consommateurs à identifier les "deepfakes". Et nous devons utiliser la puissance de l'IA pour lutter contre les menaces liées à l'IA. la puissance de l'IA pour lutter contre les menaces liées à l'IA.
Contrôle de confiance : Les jeunes ne sont pas plus doués pour repérer les contrefaçons
Les données montrent que les jeunes générations sont plus confiantes dans leur capacité à identifier un "deepfake" :
81% de la génération Z
75% des Millennials
57% de la Génération X
42% des baby-boomers
En outre, 61% des répondants de la génération Z et 56% des milléniaux pensent que leur capacité à identifier les deepfakes s'est améliorée au cours des six derniers mois. De plus, la génération Z s'appuie davantage sur le consensus de la communauté que les autres générations.
40% du total des répondants consultent les commentaires pour vérifier la validité du contenu
60% des membres de la génération Z consultent les commentaires et 32% demandent à un ami de le faire.
Mais les sections de commentaires et les amis peuvent également être trompeurs, car les gens utilisent souvent les médias sociaux, les fils de discussion et les plateformes de commentaires pour partager leurs propres opinions. Les milléniaux sont plus sceptiques : 57% se tournent vers leurs propres recherches en ligne pour vérifier. En réalité, nous n'avons pas toujours la visibilité nécessaire pour savoir si le point de vue d'une autre personne est fondé sur des faits et des preuves.
La prise de conscience n'est pas l'action : L'écart de comportement des deepfake
Si l'on examine les données pour toutes les tranches d'âge, 47% effectuent leurs propres recherches en ligne pour vérifier le contenu, mais seulement un tiers se désintéressent du contenu s'ils pensent qu'il est faux.
La génération X et la génération Z sont alignées sur la recherche, mais pas sur l'engagement :
45% de chaque groupe d'âge font leurs propres recherches pour vérifier le contenu.
Mais 38% de la génération X se désengageront, alors que seulement 21% de la génération Z le feront.
Pour les Millennials, l'écart se creuse :
57% font leurs propres recherches en ligne
Mais seulement 24% se désengageraient des "deepfakes" potentiels.
Cela montre qu'il existe un écart important entre les comportements et que la sensibilisation n'est pas toujours suffisante pour inciter les consommateurs à agir.
Les jeunes générations sont généralement plus susceptibles d'être sensibilisées à l'IA et d'interagir plus souvent avec elle. Il est possible qu'ils se sentent plus à l'aise lorsqu'ils sont exposés à des "deepfakes" tant qu'ils savent qu'ils sont faux et qu'ils peuvent choisir de s'engager ou de réagir en conséquence. C'est le point d'inflexion où la prise de conscience doit se transformer en action. Il ne suffit pas de savoir qu'il existe des "deepfakes". Les consommateurs de tous âges doivent faire preuve de diligence dans leurs recherches pour en découvrir la validité et, à partir de là, dans leur choix d'aller de l'avant dans leur engagement en ligne.
Les retombées de la confiance : comment les "deepfakes" alimentent les risques sociaux et sécuritaires
La confiance des consommateurs dans les contenus en ligne diminue rapidement, chutant de 71% au cours des six derniers mois en raison des "deepfakes". En outre, 91% des consommateurs pensent que la GenAI ne fera qu'aggraver le problème des "deepfakes".
En réalité, les deepfakes sont difficiles à identifier :
27% des personnes interrogées éprouvent le plus de difficultés avec les images et le contenu textuel
25% sont les moins confiants dans leur capacité à identifier les vidéos comme des deepfakes
35% déclarent que la présence de "deepfakes" en ligne est leur plus grande source d'inquiétude.
Les "deepfakes" brouillent les frontières entre ce qui est réel et ce qui ne l'est pas, sapant la crédibilité des espaces numériques et créant une polarisation sociale. En conséquence, les divisions sociales existantes peuvent s'intensifier et les gens peuvent être moins enclins à s'engager dans une résolution plus collective des problèmes liés au contenu en ligne.
Du point de vue de la sécurité, les deepfakes peuvent être utilisés pour contourner les contrôles de sécurité, autoriser des transactions frauduleuses et manipuler les processus. Les escroqueries et les attaques d'ingénierie sociale utilisant des "deepfakes" peuvent briser la confiance dans les interactions numériques et entraîner de réelles pertes financières.
Pour renforcer la confiance dans l'identification des "deepfakes", il faut aller au-delà des solutions techniques cloisonnées et adopter une stratégie de sécurité globale. En intégrant une sensibilisation à la sécurité ciblée et basée sur des scénarios, en déployant une détection en temps réel alimentée par l'IA et en organisant une formation à la réponse aux incidents distribuée incluant des scénarios de deepfake dans la planification de la résilience, les organisations peuvent construire à la fois la rigueur technique et la confiance nécessaires pour contrer des menaces synthétiques de plus en plus sophistiquées. Un modèle adaptatif à plusieurs niveaux montre que la confiance n'est pas seulement obtenue par la précision de la détection, mais aussi par une formation continue, des rapports transparents et une préparation interfonctionnelle.
Combler le fossé de la détection des deepfakes grâce à Human Risk
Ce n'est pas parce que les gens sont conscients des risques liés aux "deepfakes" qu'ils sont automatiquement protégés. Bien que les consommateurs fassent déjà preuve d'un certain scepticisme à l'égard des contenus suspects, l'IA continue de bouleverser le paysage des menaces, ce qui signifie que les stratégies défensives doivent évoluer rapidement pour garder une longueur d'avance.
Dans les organisations, l'amélioration de la confiance dans l'identification des "deepfakes" n'est pas un défi technologique single, mais un processus interfonctionnel en constante évolution. Le succès dépend de la capacité à combattre l'IA par l'IAet d'intégrer la formation adaptative. L'exploitation de l'IA pour la prévention prédictive des menaces, l'automatisation des contrôles de sécurité et l'accélération de la gouvernance contribuera à combler le fossé et à favoriser un environnement numérique qui s'articule autour de la détection intelligente et de la conscience humaine.
Vous voulez en savoir plus ? Découvrez notre approche de l 'IA, du risque humain et de la cybersécurité à l'épreuve du temps.
Abonnez-vous à Cyber Resilience Insights pour plus d'articles comme ceux-ci
Recevez toutes les dernières nouvelles et analyses de l'industrie de la cybersécurité directement dans votre boîte de réception.
Inscription réussie
Merci de vous être inscrit pour recevoir les mises à jour de notre blog.
Nous vous contacterons !