Insider Risk Management & Data Protection

    (Gefälschte) Nachrichten: Aktuelle Daten offenbaren die Kluft zwischen Wahrnehmung und Realität

    Deepfakes können heutzutage so überzeugend sein, dass sie oft zu weit verbreiteten Betrügereien, Diebstahl und Phishing führen.

    by Cheryl Zupan

    Wichtige Punkte

    • Das Verständnis der kritischen Kluft zwischen dem Glauben der Verbraucher an ihre eigene Fähigkeit, einen Deepfake zu entdecken, und der Fähigkeit, einen Deepfake aus der Masse herauszufiltern. 

    • Warum das Vertrauen der Verbraucher in Online-Inhalte rapide sinkt: 71% in den letzten sechs Monaten aufgrund von Fälschungen. 

    • Wie Sie die Lücke in der Deepfake-Erkennung mit Human Risk Management schließen. 

    Generative KI (GenAI) ist der Motor der nächsten Innovationswelle. Und die nächste Welle der Täuschung. Während GenAI viel für uns tun kann, kann sie auch viel für schlechte Akteure tun, die Menschen online ausnutzen. Geben Sie deepfakes ein.

    Der rasante Fortschritt in der KI und die zunehmende Zugänglichkeit von KI-Tools spielen eine wichtige Rolle bei der wachsenden Präsenz von Deepfakes. Während frühere Deepfakes deutlichere Merkmale aufwiesen, ist es dank der Qualität und des Realismus, den Bedrohungsdarsteller heute erreichen können, einfacher denn je, Verbraucher zu manipulieren.  

    Mimecast hat 1.000 Erwachsene in den USA befragt, um die Wahrnehmung der Verbraucher in Bezug auf Deepfakes zu erforschen und zu verstehen. Unsere Daten geben Aufschluss darüber, wie Verbraucher ihre eigenen Erkennungsfähigkeiten einschätzen und wie die zunehmende Verbreitung von Deepfakes durch KI das Vertrauen untergräbt.  

    Die Verbraucher erkennen einen Deepfake, wenn sie einen sehen... Oder doch nicht?  

    Unsere Daten zeigen: 

    • 52% der Befragten sagen, dass sie auf Deepfake-Inhalte gestoßen sind 

    • 64% sind entweder etwas oder sehr zuversichtlich, dass sie einen solchen erkennen können 

    Die Kehrseite der Medaille, eine Studie aus dem Jahr 2025 die Verbraucher mit echten und gefälschten Inhalten konfrontierte, ergab, dass nur 0,1% der Teilnehmer erkennen konnten, was echt war.  

    Es besteht eine kritische Lücke zwischen dem Glauben der Verbraucher an ihre eigene Fähigkeit, einen Deepfake zu entdecken, und der Fähigkeit, einen Deepfake aus der Masse herauszufiltern.  

    • Ein Drittel der Amerikaner ist sich nicht sicher, ob sie in den letzten sechs Monaten mehr oder weniger Deepfakes gesehen haben 

    • Im gleichen Zeitraum glaubte die Hälfte (49%), dass sich ihre Fähigkeit, einen Deepfake zu erkennen, verbessert hat. 

    Die Verbraucher sind weitgehend zuversichtlich, dass sie einen Deepfake erkennen, wenn sie ihm begegnen, aber gleichzeitig wissen sie nicht wirklich, worauf sie achten müssen. Das wirft die Frage auf: Wissen die Verbraucher, wie sie einen Deepfake erkennen können? Oder gehen sie einfach davon aus, dass sie einen aufgrund alter Geschichten erkennen können? Die Daten sind eindeutig: Wir brauchen eine bessere Schulung des Sicherheitsbewusstseins, damit die Verbraucher Deepfakes erkennen können. Und wir müssen die Macht der KI nutzen die Macht der KI nutzen, um KI-Bedrohungen zu bekämpfen.  

    Vertrauenstest: Jüngere Augen sind nicht schärfer beim Erkennen von Fälschungen  

    Die Daten zeigen, dass die jüngeren Generationen mehr Vertrauen in ihre Fähigkeit haben, einen Deepfake zu erkennen: 

    • 81% von Gen Z  

    • 75% von Millennials   

    • 57% von Gen X  

    • 42% der Baby-Boomer   

    Außerdem glauben 61% der befragten Gen Z und 56% der Millennials, dass sich ihre Fähigkeit, Deepfakes zu erkennen, in den letzten sechs Monaten verbessert hat. Und die Generation Z ist stärker auf den Konsens der Gemeinschaft angewiesen als andere Generationen. 

    • 40% der Befragten insgesamt sehen sich Kommentare an, um die inhaltliche Gültigkeit zu überprüfen  

    • 60% der Gen Z nutzen die Kommentare und 32% werden einen Freund fragen 

    Aber auch Kommentarbereiche und Freunde können in die Irre führen, da Menschen häufig soziale Medien, Diskussionsforen und Kommentarplattformen nutzen, um ihre eigene Meinung zu teilen. Millennials sind skeptischer: 57% nutzen ihre eigene Online-Recherche, um sich zu vergewissern. Die Realität ist, dass wir nicht immer den nötigen Überblick darüber haben, ob die Meinung eines anderen auf Fakten und Beweisen beruht.    

    Bewusstheit ist keine Handlung: Die Lücke im Verhalten von Deepfake 

    Betrachtet man die Daten über alle Altersgruppen hinweg, so führen 47% ihre eigenen Online-Recherchen durch, um Inhalte zu überprüfen, aber nur ein Drittel der Befragten wendet sich von Inhalten ab, wenn sie glauben, dass diese gefälscht sind. 

    Gen X und Gen Z sind bei der Forschung einer Meinung, aber nicht beim Engagement: 

    • 45% jeder Altersgruppe recherchieren selbst, um den Inhalt zu überprüfen 

    • Aber 38% der Generation X wird sich abmelden, während nur 21% der Generation Z dies tun wird. 

    Bei den Millennials vergrößert sich die Kluft: 

    • 57% recherchieren selbst im Internet 

    • Aber nur 24% würde sich von potentiellen Deepfakes trennen. 

    Dies zeigt, dass es eine erhebliche Verhaltenslücke gibt und dass das Bewusstsein nicht immer ausreicht, um die Verbraucher zum Handeln zu bewegen.  

    Jüngere Generationen sind typischerweise sind sich der KI eher bewusst und interagieren häufiger mit ihr. Es ist möglich, dass sie sich wohler fühlen, wenn sie mit Deepfakes konfrontiert werden, solange sie wissen, dass sie gefälscht sind, und sich entscheiden können, ob sie sich darauf einlassen oder entsprechend reagieren. Dies ist der Wendepunkt, an dem aus Bewusstsein Handeln werden muss. Es reicht nicht aus, zu wissen, dass es Deepfakes gibt. Verbraucher jeden Alters müssen sorgfältig recherchieren, um die Wahrheit herauszufinden, und dann entscheiden, wie sie sich im Internet engagieren.  

    Der Vertrauensverlust: Wie Deepfakes soziale und Sicherheitsrisiken schüren   

    Das Vertrauen der Verbraucher in Online-Inhalte nimmt rapide ab. In den letzten sechs Monaten sank das Vertrauen aufgrund von Deepfakes um 71%. Außerdem glauben 91% der Verbraucher, dass GenAI das Deepfake-Problem nur verschärfen wird. 

    Die Wahrheit ist, dass Deepfakes schwer zu erkennen sind:  

    • 27% der Befragten haben die größten Schwierigkeiten mit Bildern und textbasierten Inhalten  

    • 25% haben am wenigsten Vertrauen in ihre Fähigkeit, Videos als Deepfakes zu identifizieren  

    • 35% sagen, dass die Präsenz von Deepfakes im Internet ihnen die größten Sorgen bereitet  

    Deepfakes verwischen die Grenzen zwischen dem, was echt ist, und dem, was nicht echt ist. Dadurch wird die Glaubwürdigkeit digitaler Räume untergraben und eine soziale Polarisierung erzeugt. Infolgedessen können sich bestehende soziale Spaltungen verstärken und die Bereitschaft der Menschen, sich an einer kollektiven Problemlösung rund um Online-Inhalte zu beteiligen, kann sinken.  

    Vom Sicherheitsstandpunkt aus gesehen können Deepfakes dazu verwendet werden, Sicherheitskontrollen zu umgehen, betrügerische Transaktionen zu autorisieren und Prozesse zu manipulieren. Betrügereien und Social-Engineering-Angriffe, die sich Deepfakes zunutze machen, können das Vertrauen in digitale Interaktionen zerstören und zu echten finanziellen Verlusten führen.  

    Um das Vertrauen in die Deepfake-Identifizierung zu erhöhen, müssen wir über technische Insellösungen hinausgehen und eine ganzheitliche Sicherheitsstrategie entwickeln. Durch die Integration eines gezielten, szenariobasierten Sicherheitsbewusstseins, den Einsatz von KI-gestützter Echtzeit-Erkennung und die Durchführung von verteilten Incident-Response-Trainings, die auch Deepfake-Szenarien in die Resilienzplanung einbeziehen, können Unternehmen sowohl die technische Strenge als auch das Vertrauen aufbauen, das erforderlich ist, um immer ausgefeilteren synthetischen Bedrohungen zu begegnen. Ein mehrschichtiges, adaptives Modell zeigt, dass Vertrauen nicht nur durch Erkennungsgenauigkeit, sondern auch durch kontinuierliches Training, transparente Berichterstattung und funktionsübergreifende Bereitschaft erreicht wird. 

    Schließen Sie die Lücke bei der Deepfake-Erkennung mit Human Risk Management 

    Nur weil die Menschen sich der Risiken von Deepfakes bewusst sind, bedeutet das nicht automatisch, dass sie geschützt sind. Obwohl die Verbraucher bereits eine gesunde Skepsis gegenüber verdächtigen Inhalten an den Tag legen, wird die Bedrohungslandschaft durch KI weiter verändert.  

    In Unternehmen ist die Erhöhung des Vertrauens in die Deepfake-Erkennung keine einzelne technologische Herausforderung, sondern ein funktionsübergreifender, sich ständig weiterentwickelnder Prozess. Der Erfolg hängt von der Fähigkeit ab, die KI mit KI zu bekämpfenzu bekämpfen und adaptives Training zu integrieren. Die Nutzung von KI für eine vorausschauende Bedrohungsabwehr, automatisierte Sicherheitskontrollen und eine beschleunigte Governance wird dazu beitragen, die Lücke zu schließen und eine digitale Umgebung zu fördern, die auf intelligenter Erkennung und menschlichem Bewusstsein beruht.  

    Möchten Sie mehr erfahren? Lesen Sie mehr über unseren Ansatz zu KI, menschlichen Risiken und zukunftssicherer Cybersicherheit.  

    Abonnieren Sie Cyber Resilience Insights für weitere Artikel wie diesen

    Erhalten Sie die neuesten Nachrichten und Analysen aus der Cybersicherheitsbranche direkt in Ihren Posteingang

    Anmeldung erfolgreich

    Vielen Dank, dass Sie sich für den Erhalt von Updates aus unserem Blog angemeldet haben

    Wir bleiben in Kontakt!

    Zurück zum Anfang