Künstliche Intelligenz in der Cyber-Security: Schutzschild oder Angriffswaffe?
Was als Werkzeug zur Effizienzsteigerung begann, hat längst das digitale Schlachtfeld erreicht. KI hilft Cyberkriminellen, Angriffe präziser und personalisierter zu gestalten – Deepfakes sind dabei nur die Spitze des Eisbergs. Gleichzeitig setzen Sicherheitslösungen seit Jahren auf Machine Learning, um Bedrohungen in Echtzeit zu erkennen und abzuwehren. Entscheidend wird sein, wer die künstliche Intelligenz schneller und klüger für sich nutzt. Ein Einblick von Cyber-Security-Experte und digicomp-Trainer Mathias Gut.
Künstliche Intelligenz, für viele gleichbedeutend mit den seit rund drei Jahren bekannten Chatbots, verändert auch die Welt der Cyberkriminalität. Sie ermöglicht es Angreifenden, Attacken gezielter und schneller auf ihre Opfer zuzuschneiden. Deepfakes sind ein besonders eindrückliches Beispiel dafür. Gleichzeitig kommt KI, vor allem in Form von Machine Learning, schon länger in Schutzlösungen wie Malwarescannern zum Einsatz, um neue Schadcodes rascher zu erkennen. Es entsteht ein fortlaufendes Katz-und-Maus-Spiel, in dem entscheidend ist, wie schnell beide Seiten die Technologie für sich adaptieren.
Drei Schritte um KI sinnvoll in der Cyber-Security einzubinden
1. Eine KI-Strategie entwickeln und etablieren
Grundsätzlich besteht der erste Schritt darin, den Einsatz von künstlicher Intelligenz in Unternehmen zu regeln, da ein ungeregelter Einsatz hohe Risiken mit sich bringt, und dies nicht nur im Bereich der Cybersicherheit, sondern insbesondere auch aus regulatorischer Sicht. Dazu gehört auch eine vom Topmanagement unterstützte KI-Strategie mit klaren Nutzungsbedingungen, die in Form von Richtlinien festgehalten sind.
2. Bestehende Schutzlösung hinsichtlich KI prüfen und auf den aktuellen Stand bringen
In Bezug auf KI in der Cybersicherheit sind Unternehmen auf die Integration in bestehende Schutzlösungen angewiesen. Daher sollten diese auf dem aktuellen Stand gehalten werden, um von Innovationen in diesem Bereich zu profitieren. Ein Wechsel zu „besseren“ Lösungen ist selbstverständlich zu prüfen, jedoch ist dieser nicht immer einfach zu realisieren und lässt sich in der Geschwindigkeit der momentanen Digitalisierung nicht von heute auf morgen umsetzen. Beruhigend ist, dass künstliche Intelligenz bei den grossen Playern kein absolut neues und unbespieltes Feld ist, da sie bereits in klassischen Schutzlösungen wie Virenscannern oder neuerdings Endpoint-Protection zum Einsatz kommt.
2. Sinnvolle KI-integrierte Schutzlösung ergänzen
Es ist ausserdem sinnvoll, die detektierten Elemente wie Endpoint Detection and Response (EDR) mit künstlicher Intelligenz anzureichern und somit eine KI-gestützte Lösung zu integrieren. So können über Muster und Verhaltensweisen rascher klare Schlüsse gezogen werden. Dies ist ein entscheidender Faktor, der nicht vernachlässigt werden darf und im schlimmsten Fall über den Erfolg von Massnahmen gegenüber Cyberkriminellen entscheidet.
Darum bleibt die menschliche Komponente trotz Automatisierung zentral
Es ist womöglich nicht die Aufgabe der Automatisierungsschritte in der Cybersicherheit, den Menschen zentral zu integrieren. Damit ist nicht gemeint, dass Software nicht durch Menschen verstanden und angepasst werden soll, sondern die damit erbrachte Leistung selbst. Wie bei vielen KI-Umsetzungen stellt sich jedoch die Frage nach der Verantwortung: Wer übernimmt diese, insbesondere wenn Entscheidungen eine hohe Tragweite haben? Autonom agierende Schutzlösungen dürfen die menschliche Komponente daher nicht vernachlässigen. Klar ist, dass gewisse Entscheidungen sehr schnell, ich spreche hier von Millisekunden, getroffen werden müssen. In diesem Prozess werden keine Menschen einbezogen. Die Verantwortung bleibt jedoch bestehen, ebenso wie die Überprüfung der durch KI getroffenen Entscheidungen und die Schaffung von Transparenz, um Management-Entscheidungen bezüglich Verbesserungsmassnahmen treffen zu können. Die Bedeutung menschlicher Kompetenz im Umgang mit soziotechnischen Systemen wird weiter zunehmen. Dazu gehört das Verständnis von Technologien wie dem Einsatz von KI und deren Auswirkungen auf Personal und Unternehmen. Diese Entwicklung verlangt gezielte Weiterbildung und ein gutes Verständnis für das Zusammenspiel von Technik und Mensch.
So verändert KI die Spielregeln im globalen Cyber-Wettrüsten
Sicherlich ist es möglich, Software mittels Chatbots zu entwickeln. Je nach KI-Modell funktioniert diese dann in vielen oder nur gewissen Teilen wie erwartet. In den Händen erfahrener Entwickler auf beiden Seiten kann dies die Umsetzung beschleunigen. Wenn es auf Seiten der Angreifer zu einem Ungleichgewicht kommt, könnten sich die Spielregeln tatsächlich ungünstig verschieben. Dazu ist jedoch KI notwendig, die böswillige Aktionen ermöglicht beziehungsweise ausführt und eine deutlich bessere Stabilität im Umgang mit variablen Situationen bietet. Dies ist wichtig, um als Schadcode unerkannt zu bleiben bzw. um als gute Phishing-Geschichte die gewünschte Aktion auf Seiten des Opfers zu provozieren.
Wir dürfen jedoch keinesfalls das Spielfeld den Cyberkriminellen überlassen, sondern müssen grundlegende Möglichkeiten schaffen, um ein sicheres digitales Miteinander zu ermöglichen. Ansätze hierfür gibt es schon länger: Zero-Trust-Modelle, End-to-End-Verschlüsselung und eine klare Identitätsbestätigung. Leider werden viele der genutzten Technologien nicht entsprechend dieser Sicherheitskonzepte eingesetzt: Einerseits handelt es sich um alte, bewährte Technologien wie E-Mails, andererseits werden neue Technologien nicht durchgehend sicher konzipiert, um die Nutzung möglichst einfach zu halten oder die Kompatibilität zu alten Komponenten zu gewährleisten.
Datenqualität als Voraussetzung für verlässliche KI-Systeme in der IT-Security
Wie bei jeder Form von Intelligenz, sei sie nun künstlich oder nicht, ist der Rohstoff Information von entscheidender Bedeutung. Nur richtig strukturierte Informationen generieren Wissen und ermöglichen neue Erkenntnisse. Daher sind selbstredend die Datenqualität und die Datenmenge entscheidend, um Zusammenhänge zu erkennen und konkrete Entscheidungen abzuleiten. Somit gilt: Wer viele qualitativ hochwertige Daten besitzt, wird auch gute Security-Lösungen ermöglichen, sowohl in der Gegenwart als auch in Zukunft.
Rechenleistung und Trainingsdaten werden zum wertvoll(st)en Gut
Ein Blick auf die Börsenwerte der grossen Tech-Unternehmen zeigt deutlich, wohin sich die Macht verlagert. Ihr Wert basiert zunehmend auf Rechenleistung, Datenzugang und der Fähigkeit, daraus lernende Systeme zu entwickeln. Diese Ressourcen werden zur eigentlichen Währung der digitalen Zukunft. Die entscheidende Frage lautet, von welchen Firmen wir heutige und künftige Technologien beziehen wollen – und wie viel gebündelte Macht gesund ist. Europa hat dabei grossen Aufholbedarf. Technologische Mitbestimmung, eigene KI-Modelle und Innovationen sind zentrale Voraussetzungen, um langfristig unabhängig zu bleiben. Europa ist kreativ und forschungsstark, doch es braucht auch die wirtschaftlichen Rahmenbedingungen, damit gute Ideen hier wachsen können. Die Entscheidungen, die wir heute im Bereich KI treffen, prägen unsere gemeinsame Zukunft. Wir sollten den Point of No Return nicht verpassen.
Symbiose zwischen Mensch und Maschine
KI wird die Arbeitswelt in allen Bereichen stark verändern und zunehmend als selbstverständlicher Teil des Alltags gelten. Auch in Security-Teams werden Routineaufgaben automatisiert und teilweise durch KI übernommen. Tätigkeiten wie das Bearbeiten, Einstufen und Weiterleiten von Security-Tickets lassen sich bereits heute effizient automatisieren.
Bei komplexen Entscheidungen und tiefgehenden Analysen spielt menschliches Urteilsvermögen jedoch weiterhin eine zentrale Rolle. Wahrscheinlich wird sich eine enge Zusammenarbeit zwischen Mensch und Maschine als der wirksamste Ansatz erweisen.
KI, Cyber-Security und Machtverhältnisse zwischen Staaten und Konzernen
Die Entwicklung von KI im Bereich Cyber-Security wirft grundlegende Fragen nach Verantwortung, Einfluss und Kontrolle auf. Zentral ist, wer über KI-Modelle entscheidet und wer festlegt, welche Anwendungen zulässig oder erwünscht sind. Dabei entstehen auch ethische Spannungsfelder zwischen staatlichen Interessen, wirtschaftlichen Zielen und gesellschaftlichen Werten.
KI kann Überwachung und Kontrolle erheblich erleichtern. Gleichzeitig stellt sich die Frage, wie viel Transparenz, Datenschutz und individuelle Freiheit eine Gesellschaft bewahren will. Ziel sollte sein, Technologien so zu gestalten, dass sie den Menschen unterstützen und einen verantwortungsvollen Umgang ermöglichen.