Mit KI gegen KI – neues Projekt an der TU Dresden gegen Hacker-Angriffe
Künstliche Intelligenz bietet eine Vielzahl an Möglichkeiten – nicht nur für Menschen, die sich gerne mit einem Chatbot unterhalten wollen, sondern auch für Hacker. Sie können mit Künstlicher Intelligenz effizienter, flexibler und schneller werden. Die großen Rechenmodelle der KI ermöglichen es, Muster in Daten und Serverstrukturen schneller auf Schwachstellen abzuscannen. Aber auch beim sogenannten "Phishing" spielt KI eine wichtige Rolle. Hier wird etwa eine Mail zugesendet, die so aussieht, als käme sie von einer vertrauten Person oder von einer bekannten Organisation, beispielsweise Google oder der Deutschen Post. Auch Bankenbetrug mit KI-Unterstützung nimmt derzeit zu.
KI kann Phishing-Mails echter aussehen lassen
Durch den Einsatz von KI können die Hacker das Aussehen und den Schreibstil einer bestimmten Person oder Organisation besonders gut imitieren. Sah man bisherigen Phishing-Mails häufig an, dass sie ein Fake sind, könnte es künftig immer schwerer werden, zwischen Original und Fälschung zu unterscheiden. Häufig werden die Adressaten mit Phishing-Mails dazu aufgefordert, persönliche Daten online einzugeben oder sich beispielsweise bei Ihrem Unternehmen einzuloggen. So kommen die Angreifer an Daten, die ihnen wiederum Zugang zur Infrastruktur verschaffen können.
Mit KI können Hacker Muster in den Datenstrukturen finden

Phishing ist allerdings nur ein Beispiel, wie KI die Sicherheit im Netz gefährden kann. Gemeinhin helfen große Rechenmodelle Angreifern dabei, Muster in Daten und Netzwerksystemen zu identifizieren. Wer diese Muster durchschaut, finde womöglich auch schnell einen Weg hinein. "Es kann sein, dass ich herausfinde, hinter einem Adressbereich, der im Prinzip 200 Webserver umfasst, haben zehn einen Webserver, dann kann ich davon ausgehen, dass das dann die nächsten 190 auch haben", erklärt Matthias Wählisch. Er ist Professor für Distributed and Networked Systems an der TU Dresden und koordiniert das Forschungsprojekt AI.Auto-Immune. Die TU und ihre Partner wollen in diesem Projekt analysieren, wie Hacker KI nutzen, um IT-Strukturen anzugreifen.
Wählisch sagt, man müsse davon ausgehen, dass Angreifer zunehmend Methoden der künstlichen Intelligenz einsetzen, um Nutzern zu schaden – insofern müsse man sich darauf vorbereiten "Zunächst einmal machen wir das, indem wir versuchen zu verstehen, wie Angreifer strukturell Methoden der KI nutzen, um Internetnutzer zu bedrohen."
KI gegen KI
Die meisten Methoden der Hacker sind nämlich deutlich subtiler als das eben beschriebene Phishing. Sie finden quasi unter der Oberfläche statt – von den meisten privaten Nutzern unbemerkt. Um Angriffe aufzuspüren, greifen Wählisch und sein Team ebenfalls auf Künstliche Intelligenz zurück. Es heißt also quasi KI gegen KI – im Kampf um unsere Netzwerksicherheit.
Wer sich das nun vorstellt, wie einen gigantischen Kampf zweier Superhirn, könnte ein wenig enttäuscht sein. Ganz so spektakulär läuft das Forschungsprojekt aber nicht ab. Matthias Wählisch weist darauf hin, dass der Begriff "KI" mitunter starke Emotionen hervorruft – was KI in diesem Kontext aber einfach bedeutet: Rechenmodelle und Statistik.
Verstehen, wie Angreifer künstliche Intelligenz nutzen
Genauso, wie die Hacker KI-Modelle verwenden, um Muster in der IT-Infrastruktur und damit Sicherheitslücken aufzuspüren, nutzen Wählisch und sein Team KI, um wiederum Muster aufzuspüren, die Hinweise auf Hacker geben. "Wenn Sie sich das Internet vorstellen, da kommen viele Daten zusammen. Und diese Daten würde man jetzt beispielweise separieren, in einzelne Gruppen. Wenn wir dann eine Gruppe haben, in der potenziell Angreifer sind, schauen wir weiter in diesen Teildatensatz rein, um besser zu verstehen, wie die Angreifer dort vorgehen."
Im ersten Schritt geht es also nur darum, zu verstehen, wie Hacker vorgehen und wie sie KI-Modelle für ihre Zwecke nutzen. Danach soll an Systemen zur Verteidigung gearbeitet werden, die bestenfalls automatisch erkennen, wo gerade neue Bedrohungen für die IT-Infrastruktur entstehen und dort entsprechend die Sicherheitsmaßnahmen verschärfen. Beispielsweise, indem die KI Lagebilder von Angriffspunkten interner Firmennetze oder kritischer Infrastruktur generiert.
Links/Studien
Mehr Informationen über das Projekt gibt es auf den Seiten der TU Dresden.
Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke