Zurück zur Übersicht
4 min Lesezeit

Cybersicherheit und KI im Unternehmen: Risiken und Empfehlungen

4 min Lesezeit
November 28, 2024
Autor Eye Security
KI und Cybersicherheit
Autor Eye Security
28 November 2024

Der Einsatz von künstlicher Intelligenz (KI), insbesondere des maschinellen Lernens (ML), eröffnet enorme Innovationsmöglichkeiten. Um das Potenzial von KI-Systemen für die Cybersicherheit erschließen zu können, werden jedoch wirksame Qualitätsmanagementverfahren für Unternehmen benötigt. Die Best Practice-Empfehlungen zum verantwortungsvollen Umgang mit Algorithmen und Daten sollten von einer datenschutzfreundlichen Gestaltung der IT-Systeme begleitet werden. Mit den zahlreichen ungeklärten rechtlichen Fragen in diesem Zusammenhang sollte offen und strukturiert umgegangen werden.  

KI-Systeme bringen eine Reihe von rechtlichen und regulatorischen Risiken mit sich. Da nicht alle Methoden zur Validierung der Genauigkeit und Leistung von KI-Systemen zuverlässig sind, müssen die Unternehmen die regulatorischen und operativen Risiken, die mit diesen Systemen verbunden sind, genauer betrachten. 

KI, Cybersicherheit und Datenschutz: Eine umstrittene Konstellation 

Die Anforderungen an Datenschutz und „Explainability“ (Erklärbarkeit) stellen für einige KI-Anwender eine echte Herausforderung dar: Die wachsende Komplexität des maschinellen Lernens und die zunehmende Beliebtheit von Deep-Learning-Algorithmen, die sich wie „Black Boxes“ verhalten, führt dazu, dass oft hochpräzise Ergebnisse erzielt werden, ohne erläutern zu können, wie diese Ergebnisse ermittelt wurden. 

Die Vorteile bleiben jedoch enorm. Bei dem Einsatz von KI zum Schutz von IT-Systemen können Sicherheitsexperten große Datenmengen verarbeiten, sicherheitsrelevante Events verschiedener Komplexitätsstufen identifizieren und auswerten, sowie gleichzeitig den Überblick über den Status der Systeme behalten. 

Laut einer Studie von IBM (Total Cost of Data Breach Report 2024) sparen Unternehmen, die KI in ihrer Cybersicherheit einsetzen, durchschnittlich 3,05 Millionen US-Dollar (aktuell 2,83 Millionen Euro) und 74 Arbeitstage bei der Beseitigung von Sicherheitsverstößen. 

Welche Anwendung findet KI in die Cybersicherheit? 

Nachfolgend finden Sie eine Übersicht über die häufigsten Anwendungen von KI zum Schutz kritischer Systeme in Unternehmen: 

Intrusion Detection (and Prevention)-Systeme  

In einem Intrusion Detection and Prevention-System (IDPS) kann KI genutzt werden, um Angreifer zu erkennen und vordefinierte Schutzmaßnahmen auszulösen, wie das Blockieren von IP-Adressen oder das Isolieren der bedrohten Systeme. 

Intrusion Detektion-Systeme (IDS) sind in der Lage, Cyber-Angriffe selbstständig zu erkennen oder das Erkennen zu erleichtern. Bei der Anwendung von überwachten Machine Learning-Algorithmen werden Daten von Angriffen als Trainingsdaten verwendet, um ähnliche Ereignisse zu erkennen. Überwachtes ML kann jedoch neue Angriffsformen nicht so gut nachvollziehen. Bei der unüberwachten „Anomalie-Detektion“ werden Aktivitäten oder Verhaltensweisen erkannt, die stark von der Norm abweichen. Hier werden aber oft „False Positives“ erzeugt.  

Incident Response-Automatisierung 

Automatisierung kann auch in der Bedrohungsabwehr eingesetzt werden, beispielsweise mit Incident Response-Automatisierung: KI-gestützte Systeme erkennen Bedrohungen und reagieren mit einem vorgegebenen Playbook auf Sicherheitsvorfälle. Risiken können so minimiert und Reaktionen beschleunigt werden. Incident Response Automation umfasst das Erkennen des Angriffs, die Isolierung des feindlichen Systems, das Blockieren und eine anschließende Wiederherstellung mittels Backups.  

Security Information and Event Management (SIEM) 

SIEM-Lösungen aggregieren umfassende Informationen über die Systeme, die sie überwachen, um Vorfälle in Echtzeit zu entdecken und zu bearbeiten. KI ermöglicht es, sowohl auf strukturierte Daten wie Logdaten zuzugreifen als auch unstrukturierte Daten zu berücksichtigen. Dies beinhaltet zum Beispiel Absturzmeldungen von Apps oder E-Mail-Hinweise von Mitarbeitern.  

Vorausschauende Analyse 

Mit der Analyse von Datensätzen und der Erkennung von Mustern lassen sich auch zukünftige Bedrohungen vorhersagen. Dabei gelten als Datenquelle nicht nur Cyberattacken, mit denen das Unternehmen in der Vergangenheit schon konfrontiert war. Mit der sogenannten Threat Intelligence sammeln KI-Systeme Daten aus Quellen wie Sicherheitsprotokollen, dem Dark Web oder Bedrohungsdatenbanken, um Angriffe zu analysieren und Sicherheitsmaßnahmen anzupassen.  

Vorfälle können zunehmend anhand von Daten aus aktuellen Angriffskampagnen oder dem Überwachen von Foren ermittelt werden. Dabei wird Natural Language Processing (NLP) eingesetzt, um Risiken in der Kommunikation zwischen potenziellen Angreifern zu erkennen.  

Ohne KI und Automatisierung ist es nahezu unmöglich, Cyber-Risiken zu bewältigen. Gleichzeitig erfordert der Einsatz von KI im Cybersecurity-Bereich eine solide Qualitätsmanagementstrategie. 

Welche Kriterien und Maßnahmen zum KI-Qualitätsmanagement im Unternehmen sind zu empfehlen? 

Im Folgenden skizzieren wir einige der Kriterien und Umsetzungsmaßnahmen, die erstmals in dem Empfehlungspapier „Eberbacher Gespräche über KI, Sicherheit und Privatheit“ des Frauenhofer-Instituts für Sichere Informationstechnologie dargelegt worden sind.  

Mindestqualitätsstandard von KI für die Cybersicherheit 

Bei ML-Systemen können die Leistungen der Angriffserkennung unter Laborbedingungen erheblich von der Leistung in realen Umgebungen abweichen. Oft lässt sich auch nicht genau sagen, auf welcher Grundlage entsprechende Ergebnisse erzielt werden. Zur Beurteilung benötigen Unternehmen die s.g. False Acceptance und False Positives sowie genauere Angaben zu den verwendeten Trainingsdaten. Maßgeblich ist die Verifizierbarkeit der Entscheidungen.  

Rechtssichere Verfahren der Datenanonymisierung in KI-Systemen 

Sobald Rohdaten in ein Modell eingegeben wurden, gibt es keine einfache Möglichkeit, sie zu entfernen, es sei denn, das Modell wird neu erstellt, was unpraktikabel und teuer ist. Daher ist es empfehlenswert, datenschutzfreundliche Mechanismen zu entwickeln, um die Integrität der Daten noch vor der Auswertung zu gewährleisten.  

Datenschutz und Big Data sind nicht unvereinbar. Jedoch stellen Big Data und KI eine Herausforderung für die Wirksamkeit des Datenschutzes dar. Durch die Analysen entstehen oft Verknüpfungen zwischen Daten, die die angestrebte Datenanonymität aufheben. Bei trainierten neuronalen Netzen ist es auch möglich, die Trainingsdaten zu rekonstruieren und Bezüge zu Personen herzustellen. Wie der Datenschutz beim Einsatz von KI-Techniken nachweislich eingehalten werden kann, ist teilweise unklar.  

An dieser Stelle ist es ratsam, Best Practice-Empfehlungen zu entwickeln, die festlegen, welche Schutzmaßnahmen nach dem Stand der Technik zu verwenden sind, um personenbezogene Daten vor der Auswertung zu pseudonymisieren oder zu anonymisieren

Klare Haftungsregelungen  

Unklare Haftungsregelungen bremsen Unternehmen dabei, das volle AI-Potenzial zur Erhöhung der Cybersicherheit zu erschließen. Wenn das Haftungsrisiko nicht abgeschätzt werden kann, können Unternehmen auf einen ansonsten plausiblen Einsatz verzichten.  

Nach der Verabschiedung des Gesetzesvorschlags über künstliche Intelligenz (AI-Act) hat die Europäische Kommission den Richtlinienentwurf über KI-Haftung veröffentlicht. Dieser soll einen harmonisierten Rechtsrahmen schaffen und die bei KI-Systemen verursachten Haftungslücken füllen. 

Erstellung eines „Code of Conduct“ für den sicheren Umgang mit KI 

Ansätze für ein Regelwerk sind bereits vorhanden, zum Beispiel die Hambacher Erklärung und die Empfehlungen der Datenethik-Kommission beim Bundesinnenministerium des Innern und für Heimat. Ein Code of Conduct für den sicheren Umgang mit KI könnte darauf basieren und sollte überprüfbar und verifizierbar sein, d.h. die Data-Journeys von der Erhebung bis hin zur Speicherung und Verarbeitung sollten nachvollziehbar und valide sein. 

Etablierung von Risikomanagement-Maßnahmen 

Weitere Herausforderungen stellen die unterschiedlichen Aggressoren dar, die selbst KI-Methoden als Angriffswerkzeuge verwenden. Diese können Wirtschaftskriminellen oder staatliche Angreifer, die kritischen Infrastrukturen anvisieren. In dieser Hinsicht sind Strategien zum Risikomanagement erforderlich. Dazu gehören die Priorisierung von Aggressoren und die Schaffung von Prioritätsstufen für Lokalitäten, die Gegenstand eines Angriffs werden können.  

Hierzu empfiehlt Gartner die Verwendung des AI TRiSM Framework: Risikomanagement mit KI-Vertrauens-, Risiko- und Sicherheitsmanagement (AI TRiSM). Es handelt sich um ein Regelwerk von Kontrollen und vertrauensbildenden Maßnahmen, die eine kontinuierliche Überwachung ermöglichen: 1) Erkennung von Anomalien bei Inhalten, 2) Data Governance und Schutz, 3) Verringerung der Sicherheitsrisiken von Anwendungen.  

Gartner prognostiziert, dass Unternehmen, die TRiSM-Kontrollen auf KI-Anwendungen einsetzen, bis 2026 mindestens 50 % weniger ungenaue oder unzulässige Informationen nutzen werden, die zu fehlerhaften Entscheidungen beitragen können.  

Fazit und Ausblick 

Unternehmen profitieren von KI-gestützten Systemen, die Bedrohungen schneller erkennen, Angriffe abwehren und zukünftige Risiken prognostizieren können. Gleichzeitig sind jedoch Herausforderungen wie mangelnde Erklärbarkeit, Datenschutzbedenken und unklare Haftungsregelungen ernst zu nehmen.

Für Unternehmen ist es entscheidend, Qualitätsstandards für KI-Systeme zu etablieren und datenschutzfreundliche Mechanismen wie Datenanonymisierung frühzeitig umzusetzen. Mit einem durchdachten Qualitäts- und Risikomanagement kann KI nicht nur Sicherheitsrisiken minimieren, sondern auch als strategisches Werkzeug zur Sicherung eines Wettbewerbsvorteils dienen.

Nehmen Sie Kontakt auf

Möchten Sie wissen, wie wir helfen können?

Lassen Sie uns drüber reden
GET IN TOUCH
Artikel weiterleiten