chevron_left
chevron_right

Wie weit ist Künstliche Intelligenz (KI) der Cyberkriminalität ausgesetzt?

Künstliche Intelligenz fasst zunehmend Fuss in verschiedensten, sensiblen Wirtschafts- und Wissenschaftsbereichen – und damit auch die Cyberkriminellen? Polyscope befragte zu diesem heiklen Thema Boris Cipot, einen Experten in Sachen Cyberkriminalität.

Verschiedene Methoden der KI werden inzwischen in vielen Feldern der Wissenschaft ebenso eingesetzt wie in den unterschiedlichsten Branchen. Im Gesundheitswesen, in der Automobilbranche, im Marketing und im Bereich Robotics, um nur einige zu nennen. Künstliche Intelligenz ist den Kinderschuhen längst entwachsen. Es stellt sich zwangsläufig die Frage, inwieweit sich Cyberkriminelle dieses Potenzial zunutze machen. Seit gut einem Jahr sprechen Autoren zunehmend über die Möglichkeiten von Cyberangriffen, die sich Künstliche Intelligenz zu eigen machen.

Ob es sich dabei schon jetzt um reale Bedrohungen handelt und womit in der Zukunft zu rechnen ist, dazu hat Polyscope mit Boris Cipot gesprochen, Senior Security Engineer bei der Synopsys Software Integrity Group.

 

Polyscope (PS):Sind Cyberangriffe, die auf Methoden der KI basieren, schon Realität oder eher etwas, mit dem wir in Zukunft zu rechnen haben?

Boris Cipot (BC): KI-gesteuerte Malware und Angriffe sind durchaus mögliche Szenarien, aber es handelt sich eher um eine Bedrohung, mit der wir in Zukunft stärker werden rechnen müssen. Was wir allerdings sehr wohl schon jetzt sehen, sind Anzeichen für «smarte» Malware. Sie ist bis zu einem gewissen Grad in der Lage, Benutzer- und Systemverhalten nachzuahmen. Angriffe dieser Art können Geräte infizieren und potenziell ganze Netzwerke durchdringen, wenn die Malware den richtigen Zeitpunkt abwartet, um zuzuschlagen. Trotzdem ist das kein Angriff, der sich vollständig auf KI-basierende Methoden stützt, sondern von einem Hacker gesteuert wird. Smarte Malware mag da zunächst nur wie ein relativ kleiner Fortschritt erscheinen. Aber die Entwicklung signalisiert, dass wir uns bei Cyberangriffen ganz eindeutig in eine KI-basierte Richtung bewegen.

 

PS: Wie nutzen Cyberkriminelle KI, um sich einen technologischen Vorsprung zu verschaffen?

BC: Am häufigsten nutzen Cyberkriminelle KI in Zusammenhang mit Malware. Eine Vorgehensweise wie sie seit Jahren praktiziert wird: Unterschiedliche Arten von Malware versuchen, Systeme zu infizieren und sich unbemerkt im Netzwerk zu verbreiten. Malware profitiert von KI, indem sie durch künstliche Intelligenz zunehmend autark agieren kann. Stellen Sie sich beispielsweise vor, was ein Malware-Programm in einem Unternehmen anrichten kann, wenn es sich an die Systeme und Situationen, in denen es sich befindet, anpassen könnte: zum Beispiel Benutzerverhalten imitieren und verstehen können, wann Befehle ausgeführt oder Daten gesendet werden müssen, um die Anomalien-Erkennung zu umgehen. Eine derart unabhängige Schadsoftware würde möglicherweise jahrelang unentdeckt bleiben. Riesige Mengen an Daten könnten abgezogen werden und einem Unternehmen katastrophalen Schaden zufügen. Und sich für Cyberkriminelle als ausgesprochen profitabel erweisen.

 

PS: Stimmt es, dass Cyberkriminelle OpenSource-basierte KI-Software verwenden? Und wie lässt sich die KI so steuern, dass sie genau das tut, was die Angreifer erreichen wollen? Welchen Datentypen verwenden sie beispielsweise, um ihre KI-Modelle zu entwickeln?

BC: Open-Source-Software unterstützt Software-Entwickler darin, ihre Entwicklungszyklen zu verkürzen. Dabei liegt der Schwerpunkt auf der Funktionalität der Software und nicht auf den Funktionsmerkmalen, die dazu notwendig sind, genau das zu tun. Open-Source Software zu verwenden, ist bei jeder Art von Softwareentwicklung inzwischen vollkommen üblich. Man kann ohne grosse Transferleistung annehmen, dass Cyberkriminelle bei der Entwicklung ihrer eigenen Software einen ähnlichen Weg gehen – also ebenfalls auf Open Source Software zurückgreifen. Möglicherweise nicht in bei einer Malware selbst, sondern vielleicht in der Command-and-Control-Software oder bei der Benutzeroberfläche (UI), wo das Dashboard des Malware-Angriffs sichtbar wird.

 

PS: Was können Kriminelle mithilfe von KI erreichen, und welche Art von Schäden werden sie vermutlich dadurch verursachen?

BC: Jeder erfolgreiche Angriff kann dem Opfer finanziellen oder persönlichen Schaden zufügen, unabhängig davon, ob es sich bei diesem um ein Unternehmen oder eine Einzelperson handelt. Wenn ein Angreifer versucht, in ein Unternehmensnetzwerk einzudringen oder ein bestimmtes Gerät zu infizieren, muss er eine Reihe von Systemen überwinden, SocialEngineering-Techniken anwenden, Betriebssysteme oder Softwarefehler ausnutzen, um sich für einen erfolgreichen Angriff zu positionieren. Stellen Sie sich jetzt einen Computer vor, der mit der Summe dieses Wissens ausgestattet ist, plus er über Kenntnisse in Penetrationstechniken, Funktionen zur Verhaltensanalyse und Verhaltensnachahmung verfügt. Rein theoretisch wäre ein solcher Rechner in der Lage, Angriffe deutlich schneller, koordinierter und effizienter auszuführen. Noch beunruhigender ist, dass er potenziell Hunderte oder vielleicht sogar Tausende von Zielen auf einmal angreifen könnte. Es besteht kein Anlass zu der Vermutung, dass so ein Konzept nicht skalierbar ist. Die Schäden, die ein «SuperComputer» auf Basis gut funktionierender KI anrichten könnte, sind unvorstellbar.

PS: Sind die ausgereiften Tools, die dazu nötig wären, im Dark Web verfügbar? Und wenn ja, wie leicht sind sie zu bekommen? BC: Ich bin sicher, dass im Dark Web alle möglichen Tools existieren. Ausreichend viele davon sind technisch bereits sehr weit ausgereift. Dieselbe Frage müsste man sich hinsichtlich KI-gestützter Tools stellen. Wie ausgereift sind sie zum aktuellen Zeitpunkt bereits? Nehmen wir wieder Malware als Beispiel. Malware-Code findet man mit Sicherheit im Dark Web, und auch hier ist ein Teil dieser Malware bereits ausgereift. Ein Beispiel aus der Praxis ist WannaCry. Hier wurde der Quellcode eines Tools von anderen übernommen und weiterentwickelt.

 

PS: Was unternimmt die Cybersicherheitsbranche, um aufkommenden KI-gestützten Bedrohungen etwas entgegenzusetzen? Erwartet uns eine «KI-gegen-KI»-Zukunft?

BC: Künstliche Intelligenz oder präziser gesprochen eine ihrer Untergruppen – das maschinelle Lernen – wird schon seit einer Weile von Cybersicherheitsanbietern genutzt. Maschinelles Lernen hilft dabei, Bedrohungen oder neue Malware-Stämme zu identifizieren, und das schneller und effizienter als ein menschlicher Experte. Das verschafft Sicherheitsforschern mehr Zeit, sich auf die Fälle zu konzentrieren, bei denen die KI noch schwankende Ergebnisse zeigt, Fehleinschätzungen trifft oder gänzlich versagt hat. Wird ein solches Problem nicht nur erkannt, sondern auch gelöst, werden die gewonnen Ergebnisse wieder in das KI-System eingespeist. Solche Systeme haben sich gerade in letzter Zeit deutlich weiterentwickelt und sind nun merklich ausgereifter als noch vor wenigen Jahren. Deshalb spielen sie bei der Bedrohungserkennung und Abwehr eine wichtige Rolle.

Cyberkriminelle haben natürlich das Ziel, dass sich die von ihnen verwendete KI an die veränderte Situation durch eine ihrerseits KI-basierte Cyberabwehr anpasst und eine legitime Software oder ein harmloses Datenpaket überzeugend nachahmen kann. Solche Systeme führen böswillige Aktivitäten zudem schneller aus als ein menschlicher Hacker. Der Angreifer hat also wie der Sicherheitsexperte im Unternehmen mehr Zeit, sich auf die für ihn wichtigeren Bereiche zu konzentrieren. Eine KI-gegen-KI-Zukunft ist nicht nur möglich, wir haben sogar schon erste Erfahrungen damit gemacht.