Eines gleich vorweg: KI ist weit mehr als bekannte und mehr oder weniger praktische Chatbots wie ChatGPT. KI umfasst genauso Systeme zur Spracherkennung, Vorhersagen oder Analysen. In der Praxis bereits im Einsatz sind sogenannte Intrusion-Detection-Systeme. Intrusion bedeutet „eindringen“, und genau darauf sind diese Systeme spezialisiert.
„Sie erkennen Angriffe und Bedrohungen gegen ein System oder ein Netzwerk“, erklärt Daniel Gruß, Professor für Cybersecurity an der TU Graz. „Diese Technik wird neben Virenscannern oder Firewalls eingesetzt. Ihre Stärke ist das Erkennen von Mustern in komplexen Systemen. Sie kann Anomalien aufspüren, die auf mögliche Cyberangriffe hindeuten. So ermöglicht sie es, valide Vorhersagen über potenzielle oder tatsächliche Bedrohungen zu treffen.“
In der Forschung wird die KI aber auch eingesetzt, um Sicherheitssysteme fit zu machen. Daniel Gruß: „Man kann nur auf die Gefahren reagieren, die man kennt. Also werden wir Forschende im Prinzip zu Hackern und bauen mithilfe der KI Tools für verschiedenste Cyberangriffe, um so Sicherheitssysteme zu trainieren und zu verbessern.“ Ziel ist das maschinelle Lernen der Systeme, um korrekte Vorhersagen treffen zu können und so für neue Angriffe gewappnet zu sein. Auch bei der Analyse der unzähligen Daten, die das Forschungsteam im Zuge seiner Arbeit generiert, braucht es die Unterstützung der KI. Hier nutzt man die Geschwindigkeit und die Skalierbarkeit der Technik, um blitzschnell Ergebnisse zu bekommen, wo eine händische Auswertung oft Monate gedauert hätte.
Einsatzschwerpunkte
Die KI kommt bereits verstärkt in der Analyse von Malware zum Einsatz, also von Schadsoftware, die über verschiedene Wege ins System kommen kann. „Diese Softwaresysteme sind meist so komplex aufgebaut, dass sie schwer zu analysieren sind, um nicht entdeckt zu werden“, erklärt Daniel Gruß. „Die KI ist aber in der Lage, für uns Menschen chaotische Systeme zu erkennen und entsprechend aufzuschlüsseln.“
Auch um die Betriebssysteme unserer Rechner sicherer zu machen, wird KI eingesetzt. Sie hilft hier bei der Identifizierung von Sicherheitslücken. Gerade in diesem Bereich zeigt sich aber, dass hier noch einiges an Forschungsarbeit nötig ist. „Aktuell macht die Technik noch mehr Arbeit, als sie Probleme löst, weil die KI noch nicht gut unterscheiden kann, wie relevant eine gefundene Lücke ist oder ob diese tatsächlich in der Praxis nicht ausnutzbar und damit völlig irrelevant ist“, so Gruß.
Viel zu tun gibt es laut Daniel Gruß auch bei den immer beliebter werdenden Chatbots zur Kundenkommunikation, die schon von vielen Unternehmen eingesetzt werden. „Diese verbinden den Nutzer mit dem System und können damit Zugriff auf sensible Daten haben. Solche Systeme müssen sehr gut abgesichert sein.“
Der Einsatz der KI gerade für missbräuchliche Zwecke, etwa für Spam-Mails, Deepfake-Videos oder -Calls, aber auch ganze Desinformationskampagnen, hebt die Bedrohung auf ein ganz neues Level, wie Gruß betont. Waren Spam-Mails früher meist unglaubwürdig und klar als solche zu erkennen, wird es in Zukunft immer schwieriger, ein Spam-Mail oder eine sonstige manipulierte Nachricht von einer echten zu unterscheiden. Damit wird auch die Herausforderung für die Wissenschaft immer größer. Um diese zu bewältigen, braucht es wiederum die KI – und Forschung.
Daniel Gruß: „Künstliche Intelligenz kann nicht alleine besser werden oder mehr lernen, es braucht immer auch Menschen, welche die KI laufend optimieren. Die KI alleine wird nicht in der Lage sein, Fake Calls und Spam zu identifizieren, da braucht es auch methodisch neue Ideen aus der Forschung.“