E-Mail-Sicherheit

    Böse Jungs mit guten Algorithmen: 5 Wege, wie Cyberkriminelle KI ausnutzen können

    Die schlechte Nachricht ist, dass Cyberkriminelle die KI nutzen, um ihre Angriffe zu verstärken. Erfahren Sie, wie sie dies tun, um eine bessere Cyber-Sicherheitsabwehr aufzubauen.

    by Stephanie Overby
    1210303038.jpg

    Wichtige Punkte

    • KI entwickelt sich zu einer treibenden Kraft für neue, fortschrittlichere Bedrohungen der Cybersicherheit.
    • Bösewichte können sich KI zunutze machen, um intelligentere, anpassungsfähigere Malware zu entwickeln, Daten für eine intelligentere Kompromittierung von Geschäfts-E-Mails zu klonen oder biometrische Kontrollen mit Hilfe von Deep Fake zu umgehen.
    • Wenn man versteht, wie Cybergegner KI nutzen könnten, um ihre Bemühungen zu verstärken, können Cybersicherheitsorganisationen ein Argument für ihre eigene KI-gestützte Cyberabwehr entwickeln.

    Auch wenn Cybersecurity-Experten zunehmend künstliche Intelligenz (KI) einsetzen, um ihre Cyber-Resilienz zu verbessern, scheinen Cyberkriminelle ihnen weit voraus zu sein - sie nutzen KI als "Kraft-Multiplikator", um ihre Angriffe zu beschleunigen und zu verstärken. Forrester Research drückt es so aus: "Diese neue Ära der offensiven KI nutzt verschiedene Formen des maschinellen Lernens, um Cyberangriffe zu beschleunigen, was zu unvorhersehbaren, kontextabhängigen, schnelleren und heimlicheren Angriffen führt, die ungeschützte Organisationen lahmlegen können." [1]

    Durch maschinelles Lernen kann Malware intelligenter, anpassungsfähiger und schwieriger zu erkennen werden. Angreifer können KI nutzen, um business email compromise (BEC) auf eine ganz neue Ebene zu heben, indem sie Audio-, Video- oder sogar Wortwahlen nachahmen, um ihre Bemühungen zu verstärken, menschliche Ziele zu manipulieren. Sogar biometrische Lösungen - die als eine der "stärksten Waffen zur Bekämpfung von Betrügern bei Zahlungskarten und im elektronischen Handel" gelten - sind anfällig für bösartige KI; Cyberdiebe könnten neuronale Netze nutzen, um Bio-Authentifizierungsdaten zu simulieren.[2]

    "Es ist schwer, genau zu wissen, wer was tut, da Cyberkriminelle ihre Methoden nicht besonders öffentlich machen", sagt Dr. Herbert Roitblat, Principal Data Scientist bei Mimecast und anerkannter KI-Experte. "Aber wir wissen, dass sie viel maschinelles Lernen und andere KI einsetzen.

    Auch wenn Cyberkriminelle ihre KI-Expertise nicht anpreisen, gibt es Beweise dafür. Nachfolgend finden Sie fünf der wahrscheinlichsten, effektivsten und gefährlichsten Möglichkeiten, wie Hacker KI als Waffe einsetzen können, um BEC, Malware, Phishing und mehr zu verbessern.

    Erstellen von Deep Fake Data

    "Sicherheitssysteme basieren auf Daten", erklärt Mike Elgan in Security Intelligence. "Passwörter sind Daten. Biometrische Daten sind Daten. Fotos und Videos sind Daten - und es gibt neue KI, die gefälschte Daten generieren kann, die sich als echt ausgeben." [3]

    Die fortschrittlichen Algorithmen, die zum Beispiel hinter "Deep Fake"-Videos stehen, die Politiker in Videos falsch darstellen - generative adversarische Netze (GANs) - können verwendet werden, um einen Telefonanruf oder ein Video des CEO oder CSO eines Unternehmens zu generieren oder Fingerabdrücke oder Gesichtsbilder zu erstellen, mit denen biometrische Systeme getäuscht werden können. Bei diesem Verfahren werden zwei neuronale Netze gegeneinander ausgespielt. Ein neuronales Netz (ein Generator) simuliert Daten, um ein anderes neuronales Netz (den Diskriminator) zu täuschen; beide werden mit der Zeit immer besser. Aber der eigentliche Gewinner könnte "die große Menge an gefälschten Daten sein, die der Generator erzeugt und die als echt durchgehen", erklärt Elgan.

    Im vergangenen Jahr wurde erstmals ein deep fake Exploit für KI-gestützten Sprachbetrug eingesetzt. Kriminelle nutzten kommerzielle KI-Software, um sich als die Stimme des Geschäftsführers eines Energieunternehmens auszugeben und von einem Manager die Überweisung von 243.000 Dollar zu verlangen.

    Diese Bemühungen funktionieren auch bei Wörtern. KI kann "den Schreibstil eines Benutzers nachahmen und Nachrichten verfassen, die sehr glaubwürdig erscheinen", so ein Artikel von William Dixon vom Weltwirtschaftsforum und Nicole Eagan von Darktrace. "Nachrichten, die von KI-Malware geschrieben wurden, sind daher kaum von echter Kommunikation zu unterscheiden". [4]

    Bessere Malware entwickeln

    KI-gestützte bösartige Anwendungen können die Geschwindigkeit, Anpassungsfähigkeit, Agilität, Koordination und sogar die Raffinesse von Angriffen auf Netzwerke und Geräte erhöhen. Während ausgefeilte Angriffe früher gezielte, von Menschen durchgeführte Untersuchungen erforderten, "wird eine offensive KI in der Welt von morgen in der Lage sein, das gleiche Maß an Raffinesse in einem Bruchteil der Zeit und in einem vielfachen Ausmaß zu erreichen", erklärt Dixon-Eagan.

    Malware-Entwickler könnten KI nutzen, um schwer zu entdeckende Malware-Varianten zu generieren, das Verhalten von Knoten oder Endpunkten zu überwachen, um Muster zu erstellen, die dem legitimen Netzwerkverkehr ähneln, verschiedene Angriffstechniken zu kombinieren, um die effektivsten Optionen zu finden, die Malware-Funktionen oder den Fokus automatisch an die Umgebung anzupassen, das Malware-Verhalten zu ändern, wenn sie auf eine virtuelle Maschine oder Sandbox trifft, zu lernen und Informationen über mehrere Knoten auszutauschen oder die Geschwindigkeit ihrer Angriffe zu erhöhen.[5]

    2020 könnte das Jahr sein, in dem wir die erste Malware sehen, die KI-Modelle einsetzt, um Sandboxen zu umgehen, wie DarkReading kürzlich feststellte. "Anstatt Regeln zu verwenden, um festzustellen, ob die 'Merkmale' und 'Prozesse' darauf hindeuten, dass sich die Probe in einer Sandbox befindet, werden die Malware-Autoren stattdessen KI einsetzen und effektiv Malware entwickeln, die ihre Umgebung genauer analysieren kann, um festzustellen, ob sie in einer Sandbox läuft, was die Umgehung effektiver macht", heißt es in dem DarkReading Artikel.[6]

    Stealth-Angriffe

    KI kann auch effektivere Stealth-Angriffe ermöglichen, so dass sich Malware leicht im Hintergrund der Sicherheitsumgebung eines Unternehmens verstecken kann. Mithilfe von überwachtem und unüberwachtem Lernen können sich bösartige Programme in einem System verstecken und lernen, wie und wann sie angreifen oder Verteidigungsmaßnahmen umgehen können.

    Wie im CISO Mag erläutert: "[KI-gestützte Malware] lernt automatisch die Rechenumgebung des Unternehmens, den Lebenszyklus von Patch-Updates und die bevorzugten Kommunikationsprotokolle. Die bösartige App bleibt jahrelang unentdeckt, da die Hacker darauf warten, zuzuschlagen, wenn die Systeme am anfälligsten sind. Die Hacker führen die unentdeckten Angriffe dann aus, wenn niemand damit rechnet. Hacker können auch eine Anwendungsfunktion als KI-Auslöser für die Ausführung von Angriffen zu einem bestimmten Zeitpunkt vordefinieren." [7]

    CAPTCHA-Schlüssel knacken - und mehr

    CAPTCHA wird häufig von Websites und Netzwerken verwendet, um Bots oder andere Software-Maschinen auszusortieren, die unbefugten Zugang suchen. Mit Hilfe von Computer Vision und Deep Learning können Hacker diese gängige Sicherheitsvorkehrung jedoch umgehen.

    Im Jahr 2014 konnten Googles Algorithmen für maschinelles Lernen die am stärksten verzerrten Text-CAPTCHAs in 99,8 % der Fälle lösen.[8] Im Jahr 2017 setzten Forscher maschinelles Lernen ein, um die reCAPTCHA-Schutzmaßnahmen von Google mit einer Genauigkeit von 98 % zu umgehen.

    Während die CAPTCHA-besiegenden Fähigkeiten der KI inzwischen gut bekannt sind, kann maschinelles Lernen auch für andere sich wiederholende Aufgaben wie das Erraten von Passwörtern, das Erzwingen von Passwörtern und das Stehlen von Passwörtern eingesetzt werden, so Erik Zouave, ein Analyst der schwedischen Verteidigungsforschungsagentur FOI, in DarkReading. Er sagte, dass einige Experimente zum Erzwingen und Stehlen von Passwörtern Erfolgsquoten von mehr als 50 % bzw. 90 % hatten.[9]

    KI-gestützte Personalisierung für E-Mail-Phishing

    Der Artikel von Dixon-Eagan geht davon aus, dass der zunehmend gefährliche Emotet-Trojaner, dessen Einsatz in diesem Jahr bei einer Vielzahl von Ransomware-Angriffen, einschließlich auf US-Gesundheitssysteme, laut FBI stark angestiegen ist, um KI-Funktionen erweitert wird.

    Im Jahr 2019 fügten die Emotet-Autoren ein Modul hinzu, das E-Mail-Informationen von Opfern stiehlt und diese Daten später verwendet, um Phishing-E-Mails in großem Umfang zu kontextualisieren. "Das bedeutet, dass es sich automatisch in bereits bestehende E-Mail-Threads einfügen kann... [und] der Phishing-E-Mail mehr Kontext verleiht, wodurch sie legitimer erscheint." Wenn die Cyberkriminellen die natürliche Sprachverarbeitung weiter nutzen, um die Sprache der bestehenden E-Mails zu erlernen und zu replizieren, könnten sie die Phishing-Angriffe noch verstärken, heißt es in dem Artikel. "Da das KI-Wettrüsten weitergeht, können wir nur erwarten, dass dieser Kreislauf der Innovation eskaliert.

    Dies ist besonders besorgniserregend angesichts der Verfügbarkeit von Emotet-as-a-service.

    Die Quintessenz

    Da die KI-Fähigkeiten immer weiter fortschreiten und in immer größerem Umfang zur Verfügung stehen, wird ihre Nutzung durch Cyberangreifer in den kommenden Jahren mit Sicherheit zunehmen. Die Geschwindigkeit neuer Sicherheitsprobleme nimmt in einer Weise zu, die nur schwer zu bewältigen ist", sagt Roitblat von Mimecast, "es sei denn, Cybersecurity-Organisationen verstehen die Bewaffnung von KI und sind in der Lage, ihr mit ihrer eigenen KI-Cyberabwehr zu begegnen.

     

    [1] "The Emergence Of Offensive AI: How Companies Are Protecting Themselves Against Malicious Applications Of AI," Forrester Consulting for Darktrace

    [2] "How AI Is Capable of Defeating Biometric Authentication Systems," DZone

    [3] "AI May Soon Defeat Biometric Security, Even Facial Recognition Software," SecurityIntelligence

    [4] "3 Wege, wie KI die Art von Cyberangriffen verändern wird," World Economic Forum

    [5] "Kann künstliche Intelligenz zukünftige Malware steuern?" ESET

    [6] "How AI and Cybersecurity Will Intersect in 2020," DarkReading

    [7] "Künstliche Intelligenz als Sicherheitslösung und ihre Bewaffnung durch Hacker," CISO Mag

    [8] "Warum CAPTCHAs so schwierig geworden sind," The Verge

    [9] "Bösartige Nutzung von KI stellt eine echte Bedrohung für die Cybersicherheit dar," DarkReading

    Abonnieren Sie Cyber Resilience Insights für weitere Artikel wie diesen

    Erhalten Sie die neuesten Nachrichten und Analysen aus der Cybersicherheitsbranche direkt in Ihren Posteingang

    Anmeldung erfolgreich

    Vielen Dank, dass Sie sich für den Erhalt von Updates aus unserem Blog angemeldet haben

    Wir bleiben in Kontakt!

    Zurück zum Anfang