(Deep)fake news: Dati recenti rivelano le lacune tra percezione e realtà
I deepfakes oggi possono essere così convincenti che spesso portano a frodi, furti e phishing diffusi.
Key Points
Comprendere il divario critico tra la fiducia dei consumatori nella propria capacità di scoprire un deepfake e la capacità di distinguerne uno dalla massa.
Perché la fiducia dei consumatori nei contenuti online sta rapidamente diminuendo, con un calo di 71% negli ultimi sei mesi a causa dei deepfakes.
Come colmare il gap di rilevamento dei deepfake con Human Risk.
L'AI generativa (GenAI) sta alimentando la prossima ondata di innovazione. E la prossima ondata di inganni. Sebbene la GenAI possa fare molto per noi, può anche fare molto per i cattivi attori che approfittano delle persone online. Entra in scena deepfakes.
Il rapido ritmo di avanzamento dell'IA e la maggiore accessibilità degli strumenti di IA giocano un ruolo significativo nella crescente presenza di deepfakes. Se in passato i deepfakes presentavano delle caratteristiche più evidenti, la qualità e il realismo che gli attori possono raggiungere oggi rendono più facile che mai la manipolazione dei consumatori.
Mimecast ha intervistato 1.000 adulti statunitensi per esplorare e comprendere le percezioni dei consumatori sui deepfakes. I nostri dati fanno luce sulle opinioni dei consumatori in merito alle proprie capacità di rilevamento e su come la crescente diffusione di deepfakes alimentata dall'AI stia erodendo la fiducia e la sicurezza.
I consumatori riconoscono un deepfake quando ne vedono uno... O forse sì?
I nostri dati mostrano che:
52% degli intervistati afferma di essersi imbattuto in contenuti deepfake
64% sono un po' o molto sicuri di poterne individuare uno.
Sul versante opposto, uno studio del 2025 che ha esposto i consumatori a contenuti reali e deepfake ha rilevato che solo lo 0,1% dei partecipanti era in grado di distinguere ciò che era reale.
Esiste un divario critico tra la fiducia dei consumatori nella propria capacità di scoprire un deepfake e la capacità di distinguerlo dalla massa.
Un terzo degli americani non è sicuro di aver visto più o meno deepfakes negli ultimi sei mesi.
Nello stesso periodo, la metà (49%) ritiene che la propria capacità di identificare un deepfake sia migliorata.
I consumatori sono in gran parte sicuri di riconoscere un deepfake quando lo incontrano, ma allo stesso tempo non sanno cosa cercare. Questo pone la domanda: I consumatori sanno come riconoscere un deepfake? O pensano semplicemente di essere in grado di individuarne uno sulla base di vecchi racconti? I dati sono chiari: abbiamo bisogno di una migliore formazione sulla sicurezza per aiutare i consumatori a identificare i deepfakes. E dobbiamo utilizzare la il potere dell'AI per combattere le minacce dell'AI.
Controllo della fiducia: Gli occhi più giovani non sono più acuti nell'individuare i falsi
I dati mostrano che le generazioni più giovani sono più fiduciose nella loro capacità di identificare un deepfake:
81% della Gen Z
75% dei Millennials
57% della Gen X
42% dei Baby Boomers
Inoltre, il 61% degli intervistati della Gen Z e il 56% dei Millennials ritengono che la loro capacità di identificare i deepfakes sia migliorata negli ultimi sei mesi. E la Gen Z mostra una maggiore fiducia nel consenso della comunità rispetto alle altre generazioni.
40% del totale degli intervistati guarda i commenti per verificare la validità dei contenuti
60% della Gen Z si rivolge ai commenti e 32% chiederà a un amico
Ma anche le sezioni dei commenti e gli amici possono essere fuorvianti, poiché spesso le persone utilizzano i social media, i thread di discussione e le piattaforme di commento per condividere le proprie opinioni. I Millennials sono più scettici, con il 57% che si rivolge alle proprie ricerche online per verificare. La realtà è che non sempre abbiamo la visibilità necessaria per capire se l'opinione di qualcun altro è radicata nei fatti e nelle prove.
La consapevolezza non è azione: Il gap comportamentale del deepfake
Esaminando i dati di tutti i gruppi demografici di età, il 47% conduce la propria ricerca online per verificare i contenuti, ma solo un terzo si disimpegna dai contenuti se pensa che siano falsi.
La Gen X e la Gen Z sono allineate sulla ricerca, ma non sull'impegno:
45% di ogni gruppo di età fa le proprie ricerche per verificare i contenuti.
Ma il 38% della Gen X si disimpegnerà, mentre solo il 21% della Gen Z lo farà.
Per i Millennial, il divario aumenta:
57% fa le proprie ricerche online
Ma solo 24% si disimpegnerebbero da potenziali deepfakes
Questo dimostra un divario comportamentale significativo, e la consapevolezza non è sempre sufficiente per spingere i consumatori ad agire.
Le generazioni più giovani sono in genere è più probabile che siano consapevoli dell'IA e che interagiscano più spesso con essa.. È possibile che si sentano più a loro agio nell'essere esposti ai deepfakes, purché sappiano che sono falsi e possano scegliere di impegnarsi o rispondere di conseguenza. Questo è il punto di inflessione in cui la consapevolezza deve diventare azione. Non è sufficiente sapere che esistono i deepfakes. I consumatori di ogni età devono essere diligenti nel modo in cui effettuano le ricerche per scoprire la validità e, da lì, come scelgono di andare avanti nei modi in cui si impegnano online.
La ricaduta sulla fiducia: come i deepfakes alimentano i rischi sociali e di sicurezza
La fiducia dei consumatori nei contenuti online sta rapidamente diminuendo, con un calo di 71% negli ultimi sei mesi a causa dei deepfakes. Inoltre, il 91% dei consumatori ritiene che GenAI non farà altro che aggravare il problema dei deepfake.
La verità è che i deepfakes sono difficili da identificare:
27% degli intervistati fa più fatica con le immagini e i contenuti testuali
25% è meno fiducioso nella propria capacità di identificare i video come deepfake
35% afferma che la presenza di deepfakes online è la loro maggiore fonte di preoccupazione.
I deepfakes offuscano i confini tra ciò che è reale e ciò che non lo è, minando la credibilità degli spazi digitali e creando polarizzazione sociale. Di conseguenza, le divisioni sociali esistenti possono intensificarsi e le persone possono diventare meno disposte a impegnarsi nella risoluzione di problemi collettivi intorno ai contenuti online.
Dal punto di vista della sicurezza, i deepfake possono essere utilizzati per aggirare i controlli di sicurezza, autorizzare transazioni fraudolente e manipolare i processi. Le truffe e gli attacchi di ingegneria sociale che sfruttano i deepfakes possono far crollare la fiducia nelle interazioni digitali e portare a perdite finanziarie reali.
Per aumentare la fiducia nell'identificazione dei deepfake, è necessario andare oltre le soluzioni tecniche isolate e adottare una strategia di sicurezza olistica. Integrando nella pianificazione della resilienza una sensibilizzazione alla sicurezza mirata e basata su scenari, implementando un rilevamento in tempo reale alimentato dall'AI ed eseguendo una formazione distribuita sulla risposta agli incidenti che includa scenari di deepfake, le organizzazioni possono costruire sia il rigore tecnico che la fiducia necessari per contrastare minacce sintetiche sempre più sofisticate. Un modello stratificato e adattivo dimostra che la fiducia non si ottiene solo con l'accuratezza del rilevamento, ma anche con la formazione continua, il reporting trasparente e la disponibilità interfunzionale.
Colmare il gap di rilevamento dei deepfake con la gestione di Human Risk
Il fatto che le persone siano consapevoli dei rischi dei deepfakes non significa automaticamente che siano protette. Sebbene i consumatori abbiano già un sano scetticismo nei confronti dei contenuti sospetti, l'intelligenza artificiale continua a sconvolgere il panorama delle minacce, il che significa che le strategie difensive devono evolversi rapidamente per stare al passo.
Nelle organizzazioni, aumentare la fiducia nell'identificazione dei deepfake non è una sfida legata a una single tecnologia, ma un processo interfunzionale in continua evoluzione. Il successo dipende dalla capacità di combattere l'AI con l'AIe integrare la formazione adattiva. Sfruttare l'AI per la prevenzione predittiva delle minacce, i controlli di sicurezza automatizzati e la governance accelerata aiuterà a colmare il divario e a promuovere un ambiente digitale che si basa sul rilevamento intelligente e sulla consapevolezza umana.
Vuole saperne di più? Legga il nostro approccio all'AI, al rischio umano e alla sicurezza informatica a prova di futuro.
Si abboni a Cyber Resilience Insights per altri articoli come questi.
Riceva tutte le ultime notizie e le analisi del settore della cybersecurity direttamente nella sua casella di posta elettronica.
Iscriviti con successo
Grazie per essersi iscritto per ricevere gli aggiornamenti del nostro blog
Ci terremo in contatto!