Die schlechte Nachricht ist, dass die Cyberkriminellen die künstliche Intelligenz nutzen, um ihre Angriffe zu verstärken. Erfahren Sie, wie sie dies tun, um eine bessere Verteidigung gegen Cyberangriffe aufzubauen.

Wesentliche Punkte:

  • Die KI entwickelt sich zu einer treibenden Kraft für neue, fortschrittlichere Bedrohungen der Cybersicherheit.
  • Böse Akteure können sich die künstliche Intelligenz zunutze machen, um intelligentere, anpassungsfähigere Malware zu liefern, Daten zu klonen, um geschäftliche E-Mails intelligenter zu kompromittieren oder ihren Weg an biometrischen Kontrollen vorbei tief zu fälschen.
  • Wenn man versteht, wie Cyber-Feinde die KI nutzen könnten, um ihre Bemühungen zu verstärken, können Cyber-Sicherheitsorganisationen einen Fall für ihre eigene KI-fähige Cyber-Abwehr aufbauen.

Auch wenn Cybersecurity-Experten zunehmend künstliche Intelligenz (KI) einsetzen, um ihre Cyber-Resilienz zu verbessern, scheinen Cyberkriminelle ihnen weit voraus zu sein - sie nutzen KI als "Force Multiplier", um ihre Angriffe zu beschleunigen und aufzuladen. Wie Forrester Research es ausdrückt: "Diese neue Ära der offensiven KI nutzt verschiedene Formen des maschinellen Lernens, um Cyberangriffe aufzuladen, was zu unvorhersehbaren, kontextabhängigen, schnelleren und heimlicheren Angriffen führt, die ungeschützte Organisationen lahmlegen können." [1]

Durch maschinelles Lernen kann Malware intelligenter, anpassungsfähiger und schwieriger zu erkennen sein. Angreifer können die künstliche Intelligenz nutzen, um den E-Mail-Kompromiss (BEC) im Geschäftsleben auf eine ganz neue Ebene zu heben, indem sie Audio-, Video- oder sogar Wortwahl klonen, um ihre Bemühungen zur Manipulation menschlicher Ziele zu verstärken. Sogar biometrische Lösungen - die zu den "mächtigsten Waffen zur Bekämpfung von Betrügern bei Zahlungskarten und in der E-Commerce-Branche" zählen - sind anfällig für böswillige KI; Cyber-Diebe könnten neuronale Netzwerke ausnutzen, um Bio-Authentifizierungsdaten zu simulieren.[2]

"Es ist schwer, genau zu wissen, wer was tut, weil Cyberkriminelle ihre Methoden nicht besonders öffentlich bekannt sind", sagt Dr. Herbert Roitblat, Principal Data Scientist bei Mimecast und anerkannter KI-Experte. "Aber wir wissen, dass sie eine Menge maschinelles Lernen und andere KI einsetzen.

Cyberkriminelle dürfen zwar nicht für ihre KI-Expertise werben, aber es gibt Beweise dafür. Im Folgenden werden fünf der wahrscheinlichsten, effektivsten und gefährlichsten Wege aufgezeigt, wie Hacker die KI zur Waffe machen können, um BEC, Malware, Phishing und mehr zu überladen.

Erstellen tief gefälschter Daten

"Sicherheitssysteme basieren auf Daten", erklärt Mike Elgan von Security Intelligence. "Passwörter sind Daten. Biometrische Daten sind Daten. Fotos und Videos sind Daten - und eine neue künstliche Intelligenz kommt online, die gefälschte Daten erzeugen kann, die als echte Daten durchgehen.[3]

Die hochentwickelten Algorithmen hinter beispielsweise tief gefälschten Videos, die Politiker in Videos falsch darstellen - generative feindliche Netzwerke (GANs) - können verwendet werden, um einen Telefonanruf oder ein Video vom CEO oder CSO eines Unternehmens zu generieren oder Fingerabdrücke oder Gesichtsbilder zu erstellen, die biometrische Systeme täuschen können. Es funktioniert, indem zwei neuronale Netze gegeneinander ausgespielt werden. Ein neuronales Netz (ein Generator) simuliert Daten, um ein anderes neuronales Netz (den Diskriminator) zu täuschen; beide werden mit der Zeit besser. Aber der wirkliche Gewinner könnte "die große Menge an gefälschten Daten sein, die der Generator produziert und die als echte Daten durchgehen können", erklärt Elgan.

Im vergangenen Jahr wurde erstmals der Einsatz eines tief gefälschten Exploits für den Betrug mit KI-fähigen Stimmen verifiziert. Kriminelle benutzten kommerzielle KI-Software, um sich als die Stimme des CEO eines Energieunternehmens auszugeben, und verlangten von einem Manager die Überweisung von 243.000 Dollar.

Diese Bemühungen wirken auch auf Worte. Laut einem Artikel von William Dixon vom Weltwirtschaftsforum und Nicole Eagan von Darktrace kann die KI "den Schreibstil eines Benutzers reproduzieren und Botschaften erstellen, die höchst glaubwürdig erscheinen". "Nachrichten, die von KI-Malware geschrieben wurden, werden daher fast unmöglich von echten Mitteilungen zu unterscheiden sein".[4]

Bessere Malware entwickeln

KI-gestützte bösartige Anwendungen können die Geschwindigkeit, Anpassungsfähigkeit, Agilität, Koordination und sogar die Raffinesse von Angriffen auf Netzwerke und Geräte erhöhen. Während hochentwickelte Angriffe früher gezielte, von Menschen durchgeführte Forschung erforderten, "wird in der Welt von morgen eine offensive KI in der Lage sein, in einem Bruchteil der Zeit und in einem Vielfachen des Umfangs den gleichen Grad an Raffinesse zu erreichen", erklärt Dixon-Eagan.

Malware-Entwickler könnten die KI nutzen, um schwer erkennbare Malware-Varianten zu generieren, das Verhalten von Knoten oder Endpunkten zu überwachen, um Muster zu erstellen, die dem legitimen Netzwerkverkehr ähneln, verschiedene Angriffstechniken zu kombinieren, um die effektivsten Optionen zu finden, Malware-Funktionen automatisch anzupassen oder den Fokus auf die Umgebung zu legen, das Verhalten von Malware zu ändern, wenn sie auf eine virtuelle Maschine oder Sandbox trifft, Informationen über mehrere Knoten zu lernen und auszutauschen oder die Geschwindigkeit ihrer Angriffe zu erhöhen.[5]

2020 könnte das Jahr sein, in dem wir die erste Malware sehen, die KI-Modelle verwendet, um Sandboxen zu umgehen, bemerkte DarkReading kürzlich. "Anstatt Regeln zu verwenden, um zu bestimmen, ob die "Features" und "Prozesse" darauf hinweisen, dass sich die Probe in einer Sandbox befindet, werden Malware-Autoren stattdessen KI verwenden und damit effektiv Malware erstellen, die ihre Umgebung genauer analysieren kann, um zu bestimmen, ob sie in einer Sandbox läuft, wodurch die Umgehung effektiver wird", so der Artikel von DarkReading.[6]

Stealth-Angriffe

KI kann auch effektivere Stealth-Angriffe durchführen, so dass sich Malware leicht in den Hintergrund der Sicherheitsumgebung einer Organisation einfügen kann. Durch beaufsichtigtes und unbeaufsichtigtes Lernen können sich bösartige Programme in einem System verstecken und lernen, wie und wann sie angreifen oder Abwehrmaßnahmen umgehen können.

Wie in CISO Mag: "[KI-aktivierte Malware] lernt automatisch die Berechnungsumgebung der Organisation, den Patch-Aktualisierungs-Lebenszyklus und die bevorzugten Kommunikationsprotokolle. Die bösartige Anwendung bleibt jahrelang unentdeckt stumm, da Hacker darauf warten, zuzuschlagen, wenn die Systeme am anfälligsten sind. Hacker führen dann die nicht auffindbaren Angriffe aus, wenn niemand damit rechnet. Hacker können auch eine Anwendungsfunktion als KI-Auslöser für die Ausführung von Angriffen zu einem bestimmten Zeitpunkt vordefinieren".[7]

Knacken von CAPTCHA-Schlüsseln - und mehr

CAPTCHA wird weithin von Websites und Netzwerken verwendet, um Bots oder andere Software-Maschinen auszusortieren, die unautorisierten Zugang suchen. Allerdings können Hacker durch Computer-Sehen und tiefes Lernen in die Lage versetzt werden, diesen üblichen Backstop zu umgehen.

Im Jahr 2014 waren Googles Algorithmen für maschinelles Lernen in der Lage, die am stärksten verzerrten Text-CAPTCHAs in 99,8 % der Fälle zu lösen.[8] Im Jahr 2017 setzten die Forscher maschinelles Lernen ein, um Googles reCAPTCHA-Schutz mit einer Genauigkeit von 98 % erfolgreich zu überwinden.

Während die CAPTCHA-defeating-Fähigkeiten der KI inzwischen gut bekannt sind, kann maschinelles Lernen auch für andere sich wiederholende Aufgaben wie Passwort-Raten, Brute-Force und Stehlen eingesetzt werden, so Erik Zouave, Analyst bei der schwedischen Verteidigungsforschungsagentur FOI, in DarkReading. Er sagte, dass einige Brute-Force- und Passwortdiebstahl-Experimente Erfolgsquoten von mehr als 50% bzw. 90% hatten.[9]

KI-gestützte Personalisierung für E-Mail-Phishing

Der Artikel von Dixon-Eagan geht davon aus, dass der zunehmend gefährliche Emotet-Trojaner, dessen Einsatz in diesem Jahr bei einer Vielzahl von Ransomware-Angriffen, einschließlich auf US-Gesundheitssysteme, laut FBI stark angestiegen ist, um KI-Funktionen erweitert wird.

Im Jahr 2019 fügten die Emotet-Autoren ein Modul hinzu, das E-Mail-Informationen von Opfern stiehlt und diese Daten später dazu verwendet, Phishing-E-Mails in großem Umfang zu kontextualisieren. "Dies bedeutet, dass es sich automatisch in bereits bestehende E-Mail-Threads einfügen kann... [gibt] der Phishing-E-Mail mehr Kontext und lässt sie dadurch legitimer erscheinen. Wenn die Cyberkriminellen die natürliche Sprachverarbeitung weiter nutzen würden, um die Sprache der vorhandenen E-Mails zu lernen und zu replizieren, könnten sie die Phishing-Angriffe noch verstärken, erklärt der Artikel. "Wenn das Wettrüsten der KI weitergeht, können wir nur erwarten, dass dieser Innovationskreislauf eskaliert".

Dies ist besonders besorgniserregend angesichts der Verfügbarkeit von Emotet-as-a-Service.

Was lässt sich daraus schließen?

Da die KI-Fähigkeiten immer weiter fortschreiten und immer breiter verfügbar werden, wird ihre Nutzung durch Cyberangreifer in den kommenden Jahren mit Sicherheit zunehmen. "Die Geschwindigkeit neuer Sicherheitsprobleme nimmt in einer Weise zu, die schwer zu bewältigen ist", sagt Mimecasts Roitblat, es sei denn, die Cybersicherheitsorganisationen verstehen die Bewaffnung der KI und sind in der Lage, ihr mit ihrer eigenen KI-Cyberabwehr zu begegnen.

 

[1] "Das Aufkommen offensiver KI: Wie Unternehmen sich gegen böswillige Anwendungen von KI schützen", Forrester Consulting für Darktrace

[2] "Wie KI in der Lage ist, biometrische Authentifizierungssysteme zu besiegen", DZone

[3] "KI kann bald biometrische Sicherheit besiegen, sogar Gesichtserkennungssoftware", SecurityIntelligence

[4] "3 Wege der künstlichen Intelligenz werden die Art der Cyber-Angriffe verändern", Weltwirtschaftsforum

[5] "Kann künstliche Intelligenz zukünftige Malware kontrollieren?"ESET

[6] "Wie sich KI und Cybersicherheit im Jahr 2020 überschneiden werden", DarkReading

[7] "Künstliche Intelligenz als Sicherheitslösung und Bewaffnung durch Hacker", CISO Mag

[8] "Warum die CAPTCHAs so schwierig geworden sind", The Verge

[9] "Böswilliger Gebrauch von KI stellt eine echte Bedrohung für die Cybersicherheit dar", DarkReading

Sie wollen noch mehr Artikel wie diesen? Abonnieren Sie unseren Blog.

Erhalten Sie alle aktuellen Nachrichten, Tipps und Artikel direkt in Ihren Posteingang

Das könnte Ihnen auch gefallen:

Anatomy of a Sustained BEC Attack on Microsoft 365 Users

Cyberangreifer lauern in den Opfern ...

Cyberangreifer lauerten in den Microsoft 365-E-Mails der Opfer ... Read More >

Megan Doyle

von Megan Doyle

Mitwirkender Verfasser

Veröffentlicht am 17. November 2020

Verteidigung der AI im feindlichen Umfeld

AI — in cybersecurity and in gener…

KI - in der Cybersicherheit und im Allgemeinen - ist verwundbar... Lesen Sie mehr >

Stephanie Overby

von Stephanie Overby

Mitwirkender Verfasser

Posted Oct 23, 2020

KI und Cybersicherheit: Die Notwendigkeit einer neuen Denkweise

Da die Verwendung von fortgeschrittener KI beim Cyberangriff...

Da der Einsatz von fortschrittlicher KI bei Cyberangriffen zunimmt, werden Cyberse... Mehr lesen >

Stephanie Overby

von Stephanie Overby

Mitwirkender Verfasser

Veröffentlicht am 10. November 2020