Inzicht in en beperking van het risico van AI-vooringenomenheid in cyberbeveiliging
Nu steeds meer cyberbeveiligingsteams vertrouwen op AI om cyberrisico's te helpen beperken, is de vooringenomenheid van AI een groeiend punt van zorg. Maar het kan worden beheerd.
Hoofdpunten
- Vooringenomenheid is een punt van zorg bij het creëren en gebruiken van elke toepassing van kunstmatige intelligentie (AI).
- Naarmate cyberbeveiligingsorganisaties en -verkopers meer AI in hun verdediging opnemen, moeten zij waakzaam zijn voor het beperken van AI-vooroordelen.
- Mensen kunnen op een aantal manieren vooroordelen in AI-modellen introduceren, maar er zijn stappen die organisaties kunnen nemen om dat te beperken.
AI is in zekere zin inherent bevooroordeeld. Zoals een veteraan AI onderzoeker onlangs uitlegde: "AI verwijst naar het proces waarbij machines leren hoe ze bepaalde dingen moeten doen, gestuurd door data. Wanneer je dat doet, heb je een bepaalde dataset. En elke dataset is per definitie bevooroordeeld, omdat er niet zoiets bestaat als een volledige dataset." [1]
De fout, beste lezer, ligt niet in ons gereedschap maar in onszelf.
Menselijke vooroordelen leiden natuurlijk tot AI-vooroordelen
Studenten hersenwetenschappen weten dat vooringenomenheid een van de snelkoppelingen is die het menselijk brein in de loop van miljoenen jaren evolutie heeft ontwikkeld. In het wild geeft vooringenomenheid ons de mogelijkheid om snel te reageren zonder bewust na te denken, waardoor waarschijnlijk talloze tragedies kunnen worden voorkomen. Maar in de moderne wereld kunnen vooroordelen waarvan we ons niet eens bewust zijn, leiden tot discriminatie, vriendjespolitiek en andere sociale misstanden.
IT-teams - ook op het gebied van cyberbeveiliging - staan nu de menselijke controle af aan een soort Terminator-achtige opperheerser in de vorm van machinaal lerende AI-modellen. Zonder de juiste inzichten en controles in hun ontwikkelingsproces is de kans groot dat ze dezelfde bewuste of onbewuste vooroordelen en veronderstellingen die het menselijk gedrag beïnvloeden, inbouwen in de mogelijkheden van de resulterende AI-software. Als gevolg daarvan is een cyberbeveiligingsoplossing op basis van AI slechts zo goed als de mensen die het ontwikkelen.[2]
En AI-vooringenomenheid in cyberbeveiliging kan ronduit gevaarlijk zijn. Zodra cybercriminelen een fout in een bevooroordeeld AI-systeem herkennen, kunnen ze die uitbuiten door de automatiseringstool zo te manipuleren dat deze zich op niet-kritieke bedreigingen concentreert en een echte over het hoofd ziet. Een AI-model dat is gebaseerd op onjuiste aannames of vooringenomenheid vormt niet alleen een bedreiging voor de beveiligingspositie van een bedrijf, het kan ook gevolgen hebben voor het bedrijf, zoals IBM Security vice president Aarti Barkar schreef. [3] En omdat een bevooroordeelde AI-oplossing net zo goed lijkt te werken als een onbevooroordeelde, zijn er geen rode vlaggen die de organisatie waarschuwen voor het slecht functioneren ervan, totdat het misschien te laat is.
Naarmate cyberbeveiligingsleiders en -verkopers meer AI-mogelijkheden in hun cyberbeveiligingsfuncties integreren, moeten ze inzicht krijgen in de soorten vooroordelen die onbedoeld (of zelfs opzettelijk) in oplossingen kunnen worden ingebouwd en moeten ze schadelijke vooroordelen proberen te voorkomen of te corrigeren.
De belangrijkste drijfveren van AI-vooroordelen
Vooringenomenheid kan het proces op verschillende punten in een AI-implementatiecyclus binnendringen. De belangrijkste oorzaken van potentiële AI-vooringenomenheid zijn onder meer:
De data. Data is de meest logische plaats om te beginnen als we het hebben over vooringenomenheid in AI.[4] Als de brondata bijvoorbeeld diversiteit of volledigheid missen, zal een machine learning algoritme nog steeds presteren. De besluitvorming zal echter scheefgetrokken zijn. Een bevooroordeeld spamdetectieprogramma kan bijvoorbeeld vals-positieve resultaten opleveren en niet-spammails blokkeren. Sommige deskundigen adviseren dat trainingsgegevens voor cyberbeveiligingstoepassingen grotendeels onaangeroerd en ongecategoriseerd moeten zijn, en merken op dat organisaties voorzichtig moeten zijn met het gebruik van gegevens van derden die mogelijk niet relevant zijn voor hun specifieke cyberbeveiligingsbehoeften. Er bestaan open source toolkits, zoals Aequitas, dat bias in geüploade datasets kan meten, en Themis-ml, dat bias in data kan verminderen met behulp van bias-mitigation algoritmen.[5]
Het algoritme. We hebben allemaal veel gehoord over algoritmische vooringenomenheid: wanneer datawetenschappers AI-modellen bouwen die worden beïnvloed door hun eigen onbewuste ideeën of ervaringen. Het is van cruciaal belang dat beveiligingsexperts hand in hand werken met datawetenschappers om algoritmen te ontwerpen in de context van de bedrijfsbehoeften. [6] Er zijn processen die organisaties kunnen invoeren om de ontwikkeling van scheve modellen tegen te gaan, zoals ervoor zorgen dat het team beschikt over diepgaande kennis en ervaring op het gebied van domein- en cyberbeveiliging en het uitvoeren van een code review door een derde partij. Ook hier zijn er tools die kunnen helpen, zoals de door IBM ontwikkelde AI Fairness 360 die een aantal bias-mitigerende algoritmes combineert om problemen in machine learning modellen op te sporen.[7]
Het cyber AI-team. Het team dat de modellen en tools ontwikkelt, moet beschikken over een sterke beveiligingservaring, actueel inzicht in het bedreigingslandschap en kennis van het bedrijfsleven - maar ook over uiteenlopende achtergronden en denkwijzen. Cognitieve diversiteit en een verscheidenheid aan achtergronden en ervaringen zijn essentieel om meer afgeronde AI-cyberbeveiligingssystemen te creëren die in staat zijn een breed scala aan gedragspatronen en bedreigingen te begrijpen.
De kern van de zaak
In een tijdperk van toenemende cyberrisico's wordt AI van onschatbare waarde voor de verdediging van cyberbeveiliging en informatie over bedreigingen. Inzicht in de risico's van AI-vooringenomenheid en waakzaamheid bij het voorkomen van de introductie van vooringenomenheid in AI-beveiligingsoplossingen zijn van cruciaal belang om ervoor te zorgen dat deze tools niet alleen functioneel, maar ook onpartijdig en effectief zijn.
[1] "AI bias is een blijvend probleem, maar er is hoop voor een minimaal bevooroordeelde toekomst," TechRepublic
[2] "Wat is bevooroordeelde AI, en hoe is het van toepassing op cyberbeveiliging?," Technology.org
[3] "AI verandert cybersecurity-maar als het bevooroordeeld is, is het gevaarlijk," Fast Company
[4] "Engineering Bias Out of AI," IEEE-Spectrum
[5] Ibid.
[6] "AI verandert cybersecurity-maar als het bevooroordeeld is, is het gevaarlijk," Fast Company
[7] "Engineering Bias Out of AI," IEEE-Spectrum
Abonneer u op Cyber Resilience Insights voor meer artikelen zoals deze
Ontvang al het laatste nieuws en analyses over de cyberbeveiligingsindustrie rechtstreeks in uw inbox
Succesvol aanmelden
Dank u voor uw inschrijving om updates van onze blog te ontvangen
We houden contact!