Als AI het antwoord is, wat is dan de vraag?
AI wordt tegenwoordig vaak aangedragen als het antwoord, zelfs wanneer IT-specialisten nog niet weten wat de vraag precies is. Maar wat zijn de nadelen voor het gebruik van AI in cybersecurity? En waar boeken de cybercriminelen winst?
Artificial Intelligence (AI) is aan een opmars bezig. In cybersecurity bestaat AI al jaren. Het helpt netwerkbeveiligers om cyberdreigingen te voorkomen, deze op te sporen en hierop te reageren. Toch wordt artificial intelligence nog vaak verkeerd begrepen, deels door de hype en onduidelijkheid van en bij leveranciers. AI wordt tegenwoordig vaak aangedragen als het antwoord, zelfs wanneer IT-specialisten nog niet weten wat de vraag precies is. Maar wat zijn de nadelen voor het gebruik van AI in cybersecurity? En waar boeken de cybercriminelen winst?
Goed of slecht?
Ondanks de hype is AI fundamenteel een algoritme dat een output produceert op basis van bestaande input, zoals data en extra vragen, chat en andere gebruikersinteracties. Tot op zekere hoogte zijn deze modellen dus alleen zo krachtig of nuttig als de gegevens die ze als input krijgen. Twee modellen zijn met name relevant voor IT-beveiliging: categoriserende AI en generatieve AI zoals ChatGPT.
Ook bekend als ‘classificerende’, ‘segmenterende’ of ‘beschrijvende’ AI, werkt ‘categoriserende’ AI door input te verwerken en deze te classificeren. Vanuit het perspectief van cyberbeveiliging kan je dit toepassen op het sorteren van gedrag of bestanden in goed en slecht of het functioneren van toestaan/weigeren-lijsten. Het verschil is echter dat het model deze beslissingen ‘aanleert’ in plaats van dat het handmatig geprogrammeerd wordt. De uitdaging is dat het model niet altijd even zeker is van het categoriseren van bepaalde input, maar deze onzekerheid is niet altijd duidelijk als de output wordt geforceerd in binaire ‘goed/slecht’ beslissingen. Hier is dus enige ‘granulariteit’ nodig om netwerkbeveiligers te helpen.
Een ander nadeel van categoriserende AI is dat de meeste modellen een black box-benadering hanteren, waarbij gebruikers niet te horen krijgen hoe de AI tot een specifieke beslissing komt. Als beveiligingsteams dergelijke modellen moeten gebruiken en vertrouwen, dan moeten AI-beslissingen en de ruwe input die ze verkrijgen worden opgeslagen voor verdere analyse/forensisch onderzoek door menselijke controleurs.
Vertrouw niet blind op de hype
Generatieve AI is anderzijds heel populair dankzij grote taalmodellen (Large Language Models - LLM) en, in het bijzonder, ChatGPT. Hun vermogen om te communiceren met menselijke gebruikers in natuurlijke taal is opmerkelijk. Ze hebben zelfs het vermogen om moppen te vertellen, poëzie te produceren en zelfs visuele kunst te componeren. Het is echter belangrijk om te onthouden dat deze output niet per se origineel is, maar wordt gegenereerd uit een enorme verzameling data in combinatie met context. Daardoor is het eerder een geavanceerde en contextuele remix van de inhoud waarop het model is geprogrammeerd, dan iets dat nog nooit eerder is gezien.
In plaats van beslissingen te nemen, zoals categoriserende AI, kunnen generatieve AI-modellen het beste gebruikt worden voor het samenvatten en presenteren van informatie en feiten in natuurlijke taal. In een beveiligingscontext kan je een LLM trainen op input zoals netwerkverbindingen of compliance- en bedrijfsvereisten en vervolgens raadplegen om suggesties te genereren voor geoptimaliseerde systeeminstellingen of prioriteiten voor een compliance-strategie. Met de juiste informatie kan generatieve AI zelfs suggesties geven voor de hoofdoorzaak van aanvallen en activiteiten na een inbraak.
De uitdaging voor gebruikers is om de kwaliteit van de taal die het generatieve AI-model levert niet te verwarren met de kwaliteit van de inhoud. Sommige generatieve modellen zijn soms vals positief, vooral als de inputdata beperkt is. Uitspraken over spam e-mails, die dagelijks in grote hoeveelheden voorkomen, kunnen bijvoorbeeld nauwkeuriger zijn dan die over zero-day aanvallen. Het is misschien het beste om dit type AI te zien als een soort sparringpartner, eentje met een hoge mate van kennis over de omgeving, maar waarvan je de output altijd moet controleren.
AI voor cybercriminaliteit
Natuurlijk zijn het niet alleen cybersec-bedrijven en CISO's die in AI-technologie investeren. Cybercriminelen doen dit ook; veel van die groepen beschikken zelfs over miljoenenbudgetten. Ze kunnen AI gebruiken om hun slachtoffers te selecteren en grote databronnen door te spitten, waaronder posts op sociale netwerken. Ze beschikken via AI ook over informatie van eerdere aanvallen en Shodan-zoekopdrachten om personen of organisaties te vinden waarvan ze denken dat de kans groter is dat ze bijvoorbeeld losgeld betalen.
Generatieve modellen zijn ook ‘geschikt’ om phishing-campagnes op te zetten omdat ze foutloze inhoud in natuurlijke taal aanleveren in meerdere talen. De mogelijkheid om tekst in schrijftaal te produceren is ook een zegen voor BEC-aanvallen (Business Email Compromise). Dit verlaagt de drempel voor mensen met slechte bedoelingen, verbetert het succespercentage van aanvallen en maakt tijd vrij voor fraudeurs om aan andere zaken te werken. Generatieve AI is echter geen wondermiddel: het kan nog geen unieke malware of andere varianten genereren en zou alleen nuttig zijn voor malafide figuren die weten wat voor soort code/output ze moeten vragen.
Inventariseren
Laten we er geen doekjes om winden: AI is een nuttig hulpmiddel voor netwerkbeveiligers. Het is duidelijk dat ze alle hulp nodig hebben die ze kunnen krijgen naarmate het aantal aanvallen toeneemt en er een tekort aan vaardigheden blijft bestaan. Het is echter zinloos om bestaande en goed functionerende tools op te offeren voor een onbewezen maar flitsend AI-product.
AI heeft nog een aantal uitdagingen te overwinnen - of het nu gaat om de verklaarbaarheid van haar beslissingen, een gebrek aan opslag van ruwe gegevens voor analyse en onderzoek, hallucinaties of output die te binair is. Uiteindelijk moeten mensen de finale keuzes maken, waardoor het nog belangrijker wordt dat AI transparanter wordt en voor interpretatie vatbaar blijft.
Het goede nieuws is dat hoewel AI-tools misschien minder nuttig zijn dan sommige marketinghypes suggereren, hetzelfde geldt voor de aanvallers. Daarom moeten IT-inkopers steeds hoge zorgvuldigheidseisen stellen voor potentiële aankopen en zich niet te veel laten leiden door bangmakerij van leveranciers.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonneeEen antwoord van een AI-machine dien je op 2 aspecten te controleren: betrouwbaarheid en validiteit. De betrouwbaarheid kun je controleren door de feiten en de gevolgde logica in het antwoord te controleren. Feiten kun je bijvoorbeeld controleren door de gegeven referenties in het antwoord na te trekken. Logica kun je controleren door de gegeven redenering van de AI-machine in het antwoord te controleren. Als dit klopt dan is het antwoord betrouwbaar. Daarna moet je natrekken of dit betrouwbare antwoord valide is. Dit kun je doen door te checken of dit betrouwbare antwoord ook echt de gestelde vraag beantwoord. Een uitgebreide uitleg is te vinden op https://drive.google.com/file/d/1Uul7_38m1ugDx_5ZMZEbxG-1Zh8-UYVj/view en een uitgebreid voorbeeld kun je vinden op https://www.agconnect.nl/tech-en-toekomst/artificial-intelligence/de-vijf-zussen-van-sally