Door de opkomst van nieuwe technologieën verandert het criminele gebruik van AI, wat leidt tot steeds geavanceerdere acties door aanvallers. Eén voorbeeld is social engineering, de meest voorkomende aanvalssoort. Het succesvol gebruik van deepfakes en gepersonaliseerde phishing-berichten tonen hoe generatieve AI de kwaliteit van social engineering-aanvallen verbetert. In dit artikel verkennen we het mogelijke gebruik van AI als aanvalstool, zien we hoe deze overeenkomen met ‘normaal gebruik’ en bieden we aanbevelingen voor het veilig gebruik van AI-gebaseerde tools.
Introductie
AI-gebaseerde applicaties hebben grote impact op aanvalsmodellen als social engineering en malware. LLM’s (grote taalmodellen) verlagen de drempel om hiermee te starten en zorgen dat aanvallen veel sneller uitgevoerd kunnen worden. Er zijn talloze LLM-gebaseerde agents die grote delen van een cyberaanval kunnen automatiseren. De versnelde data-analyse en codegeneratie die deze agents mogelijk maken, zorgen er bovendien voor dat cyberaanvallen op een veel grotere schaal kunnen worden uitgevoerd dan voorheen.
Verder maken opensource-initiatieven het voor kwaadwillenden mogelijk om toegang te krijgen tot vrij beschikbare technologieën en om deze te gebruiken om schade aan te richten. Het gaat dan onder meer om zogenaamde dual-use goederen – tools en apps met meerdere toepassingen, die zowel voor gewone als voor criminele activiteiten gebruikt kunnen worden. In dit artikel verkennen we hoe de verschillende toepassingen van AI als een aanvalstool overlappen met regulier gebruik en bieden we een aantal aanbevelingen voor de omgang met AI-gebaseerde tools.
AI als aanvalstool: de impact van LLM’s
Hoe LLM’s in cybersecurity gebruikt worden, hangt vaak af van de intenties van de aanvallers. Dit zijn vaak dual-use-scenario’s, aangezien de aard van de toepassing malafide kan zijn en het meestal niet bijzonder moeilijk is om algemeen beschikbare LLM-tools te misbruiken. LLM’s kunnen de productiviteit van cybercriminelen vergroten en een sterke basis bieden voor social engineering-succes.
Hoe komt dit? De grote beschikbaarheid van LLM’s van hoge kwaliteit maakt het voor aanvallers met gemiddelde vaardigheden en weinig kennis van de taal mogelijk om realistische phishing-berichten te maken. LLM’s maken het gemakkelijk om gepersonaliseerde berichten te genereren, een specifieke schrijfstijl te gebruiken, de spelling van een specifiek persoon te imiteren en zelfs om phishing-berichten aan te vullen met realistische context. Daarnaast zijn er zogenaamde deepfakes; afbeeldingen en video’s die met behulp van AI gemaakt zijn en er authentiek uitzien.
Ook de mogelijkheid van LLM’s om malafide code te genereren is relevant binnen cybersecurity. LLM’s stellen aanvallers met beperkte expertise in staat om malafide code te genereren die veel sneller en efficiënter verspreid kan worden. Ervaren aanvallers kunnen hun operaties juist opschalen en nog veel meer schade aanrichten. De gebruikelijke open source LLM’s hebben slechts eenvoudige filters en functies om de activiteiten van aanvallers af te weren. Deze zijn vaak eenvoudig te omzeilen.
Het gebruik van LLM’s automatiseert zelfs het proces waarmee cybercriminelen ondersteuning bieden in het verkrijgen van cryptovaluta en het betalen van het losgeld na een ransomware-aanval. Ransomware-slachtoffers zijn vaak niet bekend met de vereisten voor het betalen van het losgeld, dus bieden cybercriminelen diensten aan in verschillende talen om te ‘helpen’ bij het proces.
Verdere ontwikkelingen in AI-gebaseerde aanvallen
Veel beveiligingstools zijn gebaseerd op geautomatiseerde, door AI ondersteunde detectie van kwetsbaarheden. Maar talloze opensource-tools worden niet alleen door bedrijven gebruikt, maar ook door cybercriminelen. Open platformen worden regelmatig gebruikt om door malware geïnfecteerde ML-modellen te verspreiden. Als malware verwerkt is in getrainde modellen of data, is er een grotere kans dat het gebruikt wordt zonder dat het gedetecteerd wordt.
Zogenaamde ‘reinforcement learning’-systemen worden ook vaak gebruikt als tool voor cybercriminele activiteiten. Deze systemen kunnen interactie aangaan met hun omgeving en hiervan leren, met als doel om aanvalsstrategieën voor de lange termijn in gang te zetten. De reikwijdte van deze tools kan erg breed zijn. Zo zijn er AI-tools om aanvalsvectoren te plannen, die grote delen van het proces kunnen automatiseren. In dit geval creëert AI een versie van het netwerk van het doelwit en plant het de optimale aanvalsroutes of probeert het de optimale data-exfiltratiepaden te identificeren. Andere AI-tools zijn getraind op het netwerk van een specifiek doelwit. Maar dit betekent wel dat de getrainde agent niet gemakkelijk ingezet kunnen worden voor andere netwerken.
Diverse tools ondersteunen penetratietests (pentesting) met AI-assistenten. Deze tools zijn vooral nuttig voor aanvallers die een cyberaanval proberen op te starten en de drempel willen verkleinen met AI. AI wordt ook gebruikt om delen van een aanvalsketen te automatiseren. Tot nu toe is niet bekend of AI al als volledig geautomatiseerde aanvalstool gebruikt wordt.
Aanvallen gebaseerd op door AI gegenereerde malafide code
Malware - bijvoorbeeld malafide software zoals ransomware, Trojans of wormen – worden op een endpoint van het doelwit geplaatst via exploits of social engineering-methoden, met als doel om schade aan te richten. Met het gebruik van AI-gebaseerde aanvalstools is het niet langer voldoende om op dit gebied alleen klassieke maatregelen te nemen, zoals de inzet van virusscanners. AI-modellen – van LLM’s tot GAN’s (Generative Adversarial Networks) en reinforcement learning-systemen – worden op dit gebied voor verschillende doeleinden gebruikt, ook door niet-technische aanvallers.
Natuurlijke taal kan gebruikt worden om eenvoudige malafide programma’s te maken. Maar er bestaat op dit moment geen AI die zelfstandig complexe malware kan maken met geavanceerde verduisteringstechnieken of zero-day exploits, aangezien de hiervoor vereiste trainingsgegevens duur en moeilijk te vinden zijn.
Daarnaast kan AI bestaande malware aanpassen om het moeilijker te detecteren te maken. Deze aanpak wordt doorgaans toegepast op feature-niveau en niet op codeniveau. Hoewel proof-of-concept-tools al wel bestaan, blijft dit beperkt tot het academische veld en vereist het veel expertise en uitgebreide databronnen.
Tot slot kan AI geïntegreerd worden in de malware-functionaliteit. Dit kan bijvoorbeeld via polymorfe engines die de schadelijke code dynamisch aanpassen om detectie te omzeilen. Het is ook denkbaar dat AI-modellen getraind kunnen worden om gebruikersgedrag na te bootsen om malware-acties minder opvallend te maken. Er is momenteel echter geen bewijs voor praktische toepassingen, ook al worden theoretische scenario's vaak besproken.
Conclusie en vooruitblik
Het gebruik van AI-gebaseerde applicaties maakt het mogelijk om cyberaanvallen te intensiveren, ze sneller uit te voeren en significant geavanceerdere methodes van social engineering te gebruiken. Om het snel veranderende landschap bij te benen, moeten bedrijven cybersecurity een topprioriteit maken. Traditionele beveiligingsmaatregelen zijn vaak niet meer voldoende voor een effectieve bescherming.
Het gebruik van AI-gebaseerde tools gaat voorbij traditionele cyberaanvallen, dus is het belangrijk om ook de snelheid en reikwijdte van defensieve activiteiten te vergroten. Dan gaat het zowel om strategische stappen als het bouwen van een moderne IT-infrastructuur, het opereren van een 24/7 security operations center (SOC) en het geven van trainingen om social engineering-aanvallen te voorkomen, als om tactische maatregelen, zoals het introduceren van multifactor authenticatie en maatregelen om patchbeheer te verbeteren. Je kunt hier meer over lezen in ons artikel ‘Cybersecurity binnen bedrijven: hoe het MKB zichzelf kan beschermen’.
Tot slot moeten bedrijven AI inzetten als beschermingstool voor het detecteren van dreigingen en beheren van kwetsbaarheden. Als een MXDR-provider biedt Eye Security een MDR-oplossing die tools voor Extended Detection and Response (XDR), Attack Surface Management (ASM), het opsporen van dreigingen en anti-spoofing, met een 24/7 incident response-dienst (SOC). Ontdek hier meer over op onze pagina over Managed Extended Detection and Response (MXDR).