Return to overview
4 min leestijd

Cybersecurity en AI binnen bedrijven: risico’s en aanbevelingen

4 min leestijd
maart 19, 2025
Door: Eye Security
KI und Cybersicherheit
Door: Eye Security
19 maart 2025

Het gebruik van kunstmatige intelligentie (AI), en dan vooral machine learning (ML), maakt enorme innovatiekansen mogelijk. Maar om de potentie van AI-systemen te benutten, hebben bedrijven effectieve procedures voor kwaliteitsbeheer nodig. De beste practice-aanbevelingen voor het verantwoord gebruik van algoritmes en data moeten gepaard gaan met een privacy-vriendelijk ontwerp van IT-systemen. De talloze onopgeloste juridische problemen in deze context moeten openlijk en op gestructureerde wijze aangepakt worden.

AI-systemen komen met een reeks juridische en wettelijke risico’s. Aangezien niet alle methoden voor de validatie van de accuraatheid en prestaties van AI-systemen betrouwbaar zijn, moeten bedrijven de wettelijke en operationele risico’s met deze systemen goed onderzoeken.

AI, cybersecurity en databescherming: een controversiële constellatie

De vereisten voor databescherming en ‘uitlegbaarheid’ vormen een uitdaging voor sommige AI-gebruikers: de groeiende complexiteit van machine learning en de toenemende populariteit van deep learning-algoritmes die zich als ‘black boxes’ gedragen, produceren vaak extreem accurate resultaten, zonder dat ze kunnen uitleggen hoe ze tot die resultaten zijn gekomen.

Maar de voordelen blijven enorm. Wanneer AI gebruikt wordt om IT-systemen te verdedigen, kunnen beveiligingsexperts grote hoeveelheden data verwerken, beveiligingsrelevante gebeurtenissen op verschillende complexiteitsniveaus identificeren en evalueren en tegelijkertijd de status van de systemen bijhouden.

Volgens onderzoek van IBM (Total Cost of Data Breach Report 2024) besparen bedrijven die AI in hun cybersecurity gebruiken gemiddeld 3,05 miljoen dollar (2,83 miljoen euro) en 74 werkdagen wanneer ze beveiligingsinbreuken aanpakken.

Hoe wordt AI toegepast in cybersecurity?

Hieronder vind je een overzicht van de meest voorkomende toepassingen van AI voor de bescherming van kritieke systemen binnen bedrijven:

Systemen voor inbraakdetectie (en -preventie)

AI kan in een systeem voor inbraakdetectie en -preventie (IDPS) gebruikt worden om aanvallers te detecteren en vooraf gedefinieerde beschermende maatregelen te activeren, bijvoorbeeld het blokkeren van IP-adressen of het isoleren van bedreigde systemen.

Inbraakdetectiesystemen (IDS) zijn in staat om onafhankelijk cyberaanvallen te detecteren of om te ondersteunen bij detectie. Bij het gebruik van supervised machine learning-algoritmes wordt data van aanvallen gebruikt als trainingsdata om vergelijkbare gebeurtenissen te detecteren. Maar supervised ML is niet goed in staat om nieuwe soorten aanvallen te begrijpen. Bij unsupervised ‘anomaly detection’ worden activiteiten of gedragingen herkend die sterk afwijken van de norm. Maar dit levert wel vaak fout-positieven’ op.

Incident response-automatisering

Automatisering kan ook gebruikt worden bij bescherming tegen dreigingen, bijvoorbeeld met de automatisering van incident response: AI-ondersteunde systemen detecteren dreigingen en reageren aan de hand van een vooraf gedefinieerd draaiboek op beveiligingsincidenten. Dit minimaliseert risico’s en versnelt reacties. Geautomatiseerde incident response omvat het detecteren van de aanval, isolatie van het vijandige systeem, het blokkeren van dat systeem en het herstel aan de hand van backups.

Security Information and Event Management (SIEM)

SIEM-oplossingen verzamelen uitgebreide informatie over de systemen die ze monitoren, zodat ze incidenten in realtime kunnen detecteren en afhandelen. AI maakt het mogelijk om zowel gestructureerde data, zoals loggegevens, als ongestructureerde data te gebruiken. Het gaat dan bijvoorbeeld om crash-rapportages van apps of e-mails van werknemers.

Voorspellende analyses

Door datasets te analyseren en patronen te herkennen, kunnen toekomstige dreigingen voorspeld worden. De databronnen die hiervoor gebruikt kunnen worden, zijn niet beperkt tot de cyberaanvallen waar het bedrijf in het verleden al mee te maken kreeg. AI-systemen verzamelen met zogenaamde threat intelligence data van bronnen als beveiligingslogs, het dark web of dreigingsdatabases. Daarmee analyseren ze aanvallen en passen ze beveiligingsmaatregelen aan.

Incidenten kunnen steeds vaker worden onderzocht met behulp van gegevens uit actuele aanvalscampagnes of door forums te monitoren. Natural Language Processing (NLP) wordt gebruikt om risico’s in de communicatie tussen potentiële aanvallers te identificeren.

Het is bijna onmogelijk om zonder AI en automatisering cyberrisico’s te beheren. Tegelijkertijd vereist het gebruik van AI binnen cybersecurity een sterke kwaliteitsbeheerstrategie.

Wat zijn de aanbevolen criteria en maatregelen voor AI-kwaliteitsbeheer binnen bedrijven?

Hieronder beschrijven we een aantal criteria en implementatiemaatregelen die voor het eerst werden uiteengezet in het aanbevelingsdocument Eberbach-discussie over AI, beveiliging en privacy’ van het Fraunhofer-Institut für Sichere Informationstechnologie. 

Minimale kwaliteitsstandaard voor AI in cybersecurity

In ML-systemen kan de prestatie van aanvalsdetectie onder laboratoriumomstandigheden sterk verschillen van de prestatie in praktijksituaties. Vaak is het ook niet mogelijk om precies te zeggen op welke basis bepaalde resultaten worden behaald. Om dit te beoordelen hebben bedrijven de zogenaamde valse acceptatie en fout-positieven nodig, evenals meer specifieke informatie over de gebruikte trainingsdata. De controleerbaarheid van beslissingen is cruciaal.

Juridische bescherming van data-anonimisatie in AI-systemen

Zodra ruwe data in een model is ingevoerd, is deze niet eenvoudig te verwijderen, tenzij het model opnieuw wordt opgebouwd - wat onpraktisch en kostbaar is. Het is daarom aan te raden om privacy-vriendelijke mechanismen te ontwikkelen die de data-integriteit waarborgen voordat deze wordt geanalyseerd.

Databescherming en big data zijn niet onverenigbaar. Maar big data en AI vormen wel een uitdaging voor de effectiviteit van databescherming. De analyses creëren vaak verbanden tussen data die de gewenste data-anonimiteit tenietdoen. Bij getrainde neurale netwerken is het ook mogelijk om de trainingsdata te reconstrueren en verwijzingen naar personen te maken. Het is niet altijd duidelijk hoe gegevensbescherming aantoonbaar kan worden gewaarborgd bij het gebruik van AI-technieken.

Op dit punt is het raadzaam om best practice-aanbevelingen te ontwikkelen die vastleggen welke beschermingsmaatregelen volgens de laatste stand van de techniek moeten worden gebruikt om persoonsgegevens te pseudonimiseren of anonimiseren voordat deze worden geëvalueerd.

Duidelijke aansprakelijkheidsregels

Onduidelijke aansprakelijkheidsregels weerhouden bedrijven ervan om het volledige potentieel van AI voor betere cyberbeveiliging te benutten. Als het aansprakelijkheidsrisico niet kan worden ingeschat, zien bedrijven mogelijk af van een anders logische implementatie.

Na de adoptie van de voorgestelde AI Act heeft de Europese Commissie een richtlijn voor AI-aansprakelijkheid gepubliceerd. Deze richtlijn heeft als doel om een geharmoniseerd juridisch framework op te stellen en hiaten in aansprakelijkheid veroorzaakt door AI-systemen in te vullen.

Een code of conduct opstellen voor het veilig gebruik van AI

Er bestaan al aanzetten voor een reeks regels, zoals de Ethische Code Artificial Intelligence van branchevereniging NLDigital. Een code of conduct voor het veilig gebruik van AI kan hierop gebaseerd worden en moet verifieerbaar en controleerbaar zijn. Dat betekent dat bijvoorbeeld de datareis van verzameling tot opslag en verwerking begrijpelijk en geldig moet zijn.

Risicomanagementmaatregelen vaststellen

Verdere uitdagingen worden gevormd door verschillende aanvallers die zelf AI-methoden als aanvalsmiddel gebruiken. Dit kunnen cybercriminelen of statelijke actoren zijn die zich richten op kritieke infrastructuur. Op dit gebied zijn risicomanagementstrategieën nodig. Deze omvatten het prioriteren van aanvallers en het creëren van prioriteitsniveaus voor locaties die mogelijk doelwit zijn van een aanval.

Gartner raadt aan om hier het AI TRiSM Framework voor te gebruiken, wat staat voor Risk Management with AI Trust, Risk and Security Management. Dit is een set aan controles en vertrouwenwekkende maatregelen die continue monitoring mogelijk maken. Het gaat om: 1) detecteren van afwijkingen in content, 2) gegevensbeheer en -bescherming, 3) reduceren van applicatiebeveiligingsrisico’s.

Gartner voorspelt dat bedrijven die TRiSM-controles gebruiken voor AI-applicaties tegen 2026 minstens 50% minder inaccurate of ontoelaatbare informatie gebruiken die kunnen bijdragen aan foutieve besluiten.

Conclusie en vooruitblik

Bedrijven profiteren van AI-ondersteunde systemen die dreigingen sneller herkennen, aanvallen afweren en toekomstige risico’s voorspellen. Tegelijkertijd moeten uitdagingen als een gebrek aan uitlegbaarheid, zorgen over databescherming en onduidelijke aansprakelijkheidsregels serieus worden genomen.

Het is cruciaal dat bedrijven kwaliteitsstandaarden voor AI-systemen opstellen en privacy-vriendelijke mechanismen zoals data-anonimisatie in een vroeg stadium implementeren. Met goed uitgewerkte kwaliteits- en risicomanagement kan AI niet alleen beveiligingsrisico’s beperken, maar ook dienen als strategische tool om een concurrentievoordeel te behalen.

Neem contact op

Benieuwd hoe we kunnen helpen?

Stuur ons een bericht
GET IN TOUCH
Deel dit artikel.