Was passiert, wenn maschinelles Lernen jede Interaktion, die eine Person erlebt hat, nachverfolgt und ermöglicht, Personen bei jeder Interaktion zu bewerten? Diese Bewertungen werden dann in einem Punktesystem ermittelt, das letztendlich über den Vertrauensgrad des Probanden entscheidet. Das ist die Prämisse für das Streaming-Programm „Nosedive“, das in der ersten Folge von Black Mirror auf Netflix vorkommt.

    „Nosedive ist bereits in der Gegenwart angekommen“, sagte Taylor Lehmann, Gründer und Partner bei SideChannel und Mitglied des Cyber Resilience Think Tank.

    Im Oktober kamen Lehmann und ein Dutzend weitere Mitglieder des Cyber Resilience Think Tank, einer unabhängigen, von Mimecast gesponserten Gruppe von Cybersicherheitsleitern, zusammen, um künstliche Intelligenz (KI) und die Auswirkungen des maschinellen Lernens auf die Cybersicherheit zu erörtern. Dabei ging es auch um folgende Frage:

    Wie wägen Sie den Kompromiss zwischen Datenschutz und Sicherheit ab?

    Lehmann hatte recht – die Darstellung von KI-Verzerrung in dieser Folge ist nicht unbekannt. Im Juni wurde YouTube wegen Diskriminierung verklagt – mit der Begründung, dass „KI, Algorithmen und andere ausgeklügelte Filterwerkzeuge ‚ganz oder teilweise‘ auf Rassenzugehörigkeit basierend“ Profile erstellen und Nutzer zensieren.

    „Nosedive“ ist bereits im Gange

    Taylor Lehmann, SideChannel

    Die chinesische Regierung ist einen Schritt weiter gegangen und hat ein nationales Sozialkreditsystem geschaffen. Das Ende 2013 ins Leben gerufene System gibt Unternehmen einen „einheitlichen Sozialkreditcode“ und Bürgern eine „Identitätsnummer“. Das Verhalten der Bürger (und der Unternehmen) wird dann in allen Lebensbereichen überwacht.

    Im Fall des Journalisten Liu Hu führten die aufgrund seiner Arbeit gegen ihn verhängte Verhaftung und Geldstrafe dazu, dass das System ihn als „nicht qualifiziert“ für den Kauf von Flugtickets oder Immobilien einstufte.

    „Es gab keine Akte, keinen Haftbefehl, keine offizielle Vorankündigung“, sagte Hu gegenüber The Globe and Mail. „Sie haben mir einfach den Zugang zu Dingen, auf die ich vorher Anspruch hatte, versperrt.“

    ÜBER THINK TANK

    KI wird oft fälschlicherweise als Terrorelement aufgefasst, z.B. ein anonymer Cyber-Polizist in Ihrem System

    Peter Tran, InferSight

    Dann ist da noch das Stigma. Eine Bedrohung im ursprünglichsten Sinne des Wortes.

    „KI wird oft fälschlicherweise als Terrorelement aufgefasst“, so Peter Tran, Leiter der Cyber- und Produktsicherheitslösungen bei InferSight, „so als hätte man einen anonymen Cyber-Polizisten in seinem System.“ Das klingt wie etwas aus „Black Mirror“.

    „Nosedive“ hat sich zwar nicht wirklich bewahrheitet, doch KI und maschinelles Lernen gibt es bereits. Und CISOs müssen Strategien für maschinelles Lernen in Betracht ziehen – zusammen mit dem Risiko, das mit diesen Strategien einhergeht, unabhängig davon, ob sie einen Anbieter mit der Verwaltung beauftragen oder den „Roboter“ intern einsetzen.

    Aus der Cybersicherheitsperspektive ist es sehr vorteilhaft, diese Empfehlungen des Cyber Resilience Think Tank zu befolgen – vorausgesetzt, Ihr Unternehmen kann KI und maschinelles Lernen erfolgreich in seine allgemeinen Systeme integrieren, um einen „ROI“ zu erzielen.

    Wie bei jeder neuen Technologie liegt es in der Verantwortung des Anwenders und beim Unternehmen in der Verantwortung der Technik- und Sicherheitsverantwortlichen, einen Datenschutzstandard aufrechtzuerhalten, der in einem ausgewogenen Verhältnis zu den Sicherheitsvorteilen und den organisatorischen Vorteilen steht. Letztlich ist es die Aufgabe dieser Führungskräfte, dafür zu sorgen, dass KI in Bezug auf die Kunden, Mitarbeiter, Partner und andere Kontakte eines Unternehmens „keinen Schaden anrichtet“.

    Sind Sie bereit für Mimecast?

    Lassen Sie sich ein Angebot erstellen