Noticias (profundamente) falsas: Datos recientes revelan las diferencias entre percepción y realidad
Hoy en día, los deepfakes pueden ser tan convincentes que a menudo dan lugar a fraudes, robos y suplantación de identidad generalizados.
Key Points
Comprender la brecha crítica entre la creencia de los consumidores en su propia capacidad para descubrir una deepfake y ser capaces de distinguir una entre la multitud.
Por qué la confianza de los consumidores en los contenidos en línea está disminuyendo rápidamente, cayendo un 71% en los últimos seis meses debido a los deepfakes.
Cómo cerrar la brecha en la detección de deepfakes con Human Risk.
La IA generativa (GenAI) está impulsando la próxima ola de innovación. Y la siguiente oleada de engaños. Aunque la GenAI puede hacer mucho por nosotros, también puede hacer mucho por los malos actores que se aprovechan de la gente en Internet. Entre en deepfakes.
El rápido ritmo de avance de la IA y la mayor accesibilidad de las herramientas de IA desempeñan un papel importante en la creciente presencia de deepfakes. Mientras que los deepfakes anteriores presentaban indicios más evidentes, la calidad y el realismo que pueden alcanzar ahora los actores de amenazas hacen que sea más fácil que nunca manipular a los consumidores.
Mimecast encuestó a 1.000 adultos estadounidenses para explorar y comprender las percepciones de los consumidores en torno a las deepfakes. Nuestros datos arrojan luz sobre las opiniones de los consumidores acerca de sus propias habilidades de detección y sobre cómo la creciente prevalencia de las deepfakes alimentadas por la IA está erosionando la confianza.
Los consumidores reconocen un deepfake cuando lo ven... ¿O no?
Nuestros datos lo demuestran:
52% de los encuestados afirman haberse encontrado con contenidos deepfake
64% están algo o muy seguros de poder detectar una
Por otro lado un estudio de 2025 que expuso a los consumidores a contenidos reales y deepfake descubrió que sólo el 0,1% de los participantes podía decir qué era real.
Existe una brecha crítica entre la creencia de los consumidores en su propia capacidad para descubrir una deepfake y ser capaces de distinguir una entre la multitud.
Un tercio de los estadounidenses no está seguro de si ha visto más o menos deepfakes en los últimos seis meses
En el mismo periodo, la mitad (49%) cree que su capacidad para identificar un deepfake mejoró
Los consumidores confían en gran medida en que reconocerán una deepfake cuando se topen con ella, pero al mismo tiempo no saben muy bien qué buscar. Esto plantea la pregunta: ¿Saben los consumidores cómo detectar un deepfake? ¿O simplemente asumen que serán capaces de detectar uno basándose en antiguos relatos? Los datos son claros: necesitamos una mejor formación en materia de concienciación sobre seguridad para ayudar a los consumidores a identificar las deepfakes. Y necesitamos utilizar el poder de la IA para luchar contra las amenazas de la IA.
Control de confianza: Los ojos más jóvenes no son más agudos para detectar las falsificaciones
Los datos muestran que las generaciones más jóvenes confían más en su capacidad para identificar un deepfake:
81% de la Generación Z
75% de los millennials
57% de la Generación X
42% de los Baby Boomers
Además, el 61% de los encuestados de la Generación Z y el 56% de los Millennials creen que su capacidad para identificar deepfakes ha mejorado en los últimos seis meses. Y la Gen Z muestra una mayor confianza en el consenso de la comunidad que otras generaciones.
40% del total de encuestados miran los comentarios para verificar la validez del contenido
60% de la Generación Z se dirigen a los comentarios y 32% preguntarán a un amigo
Pero las secciones de comentarios y los amigos también pueden ser engañosos, ya que la gente suele utilizar las redes sociales, los hilos de discusión y las plataformas de comentarios para compartir sus propias opiniones. Los millennials son más escépticos y 57% recurren a su propia investigación en línea para verificarlo. La realidad es que no siempre tenemos la visibilidad necesaria para saber si la opinión de otra persona se basa en hechos y pruebas.
La conciencia no es acción: La brecha del comportamiento deepfake
Al analizar los datos en todos los grupos demográficos de edad, el 47% realiza su propia investigación en línea para verificar el contenido, pero sólo un tercio se desentiende del contenido si cree que es falso.
La Generación X y la Generación Z coinciden en la investigación pero no en el compromiso:
45% de cada grupo de edad hacen su propia investigación para verificar el contenido
Pero 38% de la Generación X se desvinculará, mientras que sólo 21% de la Generación Z lo hará.
Para los millennials, la brecha aumenta:
57% realizan su propia investigación en línea
Pero sólo 24% se desmarcarían de posibles deepfakes
Esto muestra una brecha significativa en el comportamiento, y la concienciación no siempre es suficiente para empujar a los consumidores a actuar.
Las generaciones más jóvenes suelen más propensas a ser conscientes de la IA y a interactuar más a menudo con ella. Es posible que se sientan más cómodos al exponerse a deepfakes siempre que sepan que son falsos y puedan elegir participar o responder en consecuencia. Este es el punto de inflexión en el que la concienciación debe convertirse en acción. No basta con saber que existen deepfakes. Los consumidores de todas las edades deben ser diligentes en la forma en que investigan para descubrir la validez y, a partir de ahí, cómo deciden avanzar en las formas en que se relacionan en línea.
Las consecuencias de la confianza: cómo los deepfakes alimentan los riesgos sociales y de seguridad
La confianza de los consumidores en los contenidos en línea está disminuyendo rápidamente, cayendo un 71% en los últimos seis meses debido a los deepfakes. Además, el 91% de los consumidores cree que la GenAI no hará más que agravar el problema del deepfake.
La verdad es que los deepfakes son difíciles de identificar:
27% de los encuestados tienen más dificultades con las imágenes y los contenidos basados en texto
25% son los que menos confían en su capacidad para identificar vídeos como deepfakes
35% afirman que la presencia de deepfakes en Internet es su mayor motivo de preocupación
Los deepfakes difuminan las líneas entre lo que es real y lo que no lo es, socavando la credibilidad de los espacios digitales y creando polarización social. Como resultado, las divisiones sociales existentes pueden intensificarse y la gente puede mostrarse menos dispuesta a participar en una resolución de problemas más colectiva en torno a los contenidos en línea.
Desde el punto de vista de la seguridad, las deepfakes pueden utilizarse para eludir los controles de seguridad, autorizar transacciones fraudulentas y manipular procesos. Las estafas y los ataques de ingeniería social que aprovechan las deepfakes pueden acabar con la confianza en las interacciones digitales y provocar pérdidas económicas reales.
Aumentar la confianza en la identificación de deepfakes exige ir más allá de las soluciones técnicas aisladas y adoptar una estrategia de seguridad integral. Al integrar en la planificación de la resiliencia una concienciación sobre la seguridad específica y basada en escenarios, desplegar una detección potenciada por IA en tiempo real y ejecutar un entrenamiento distribuido de respuesta a incidentes que incluya escenarios de deepfake, las organizaciones pueden crear tanto el rigor técnico como la confianza necesarios para contrarrestar las amenazas sintéticas cada vez más sofisticadas. Un modelo adaptativo por capas demuestra que la confianza se consigue no sólo mediante la precisión de la detección, sino mediante la formación continua, la transparencia de los informes y la preparación interfuncional.
Cerrar la brecha de detección de deepfakes con la Gestión de Human Risk
El hecho de que la gente sea consciente de los riesgos de los deepfakes no significa automáticamente que esté protegida. Aunque los consumidores ya poseen un sano escepticismo ante los contenidos sospechosos, la IA sigue alterando el panorama de las amenazas, lo que significa que las estrategias defensivas deben evolucionar rápidamente para mantenerse a la vanguardia.
En las organizaciones, aumentar la confianza en la identificación de deepfakes no es un reto de una sola tecnología, sino un proceso interfuncional en continua evolución. El éxito depende de la capacidad de combatir la IA con IAe integrar la formación adaptativa. Aprovechar la IA para la prevención predictiva de amenazas, los controles de seguridad automatizados y la gobernanza acelerada ayudará a cerrar la brecha y a fomentar un entorno digital que pivote sobre la detección inteligente y la conciencia humana.
¿Quiere saber más? Lea sobre nuestro enfoque de la IA, el riesgo humano y la ciberseguridad a prueba de futuro.
Suscríbase a Cyber Resilience Insights para leer más artículos como éste
Reciba las últimas noticias y análisis del sector de la ciberseguridad directamente en su bandeja de entrada
Inscríbase con éxito
Gracias por inscribirse para recibir actualizaciones de nuestro blog
¡Estaremos en contacto!