chevron_left
chevron_right

KI, ein zweischneidiges Schwert?

Künstliche Intelligenz (KI) verändert unsere Welt auf eine früher nur schwer vorstellbare Art und Weise. Und KI nimmt Einfluss auf viele Bereiche in der Industrie. In den letzten Jahren wurden die Grundlagen der KI auch in der Cybersicherheit genutzt – wegen der Skalierbarkeit und weil KI Zero-Day-Angriffe verhindern kann. Ob KI «gut» oder «schlecht» ist, kommt darauf an, wer sie wie benutzt.

In einer Cylance-Umfrage vom August 2017 waren 62 % der befragten Sicherheitsexperten überzeugt, dass wir schon bald mit Angriffen zu rechnen haben, die künstliche Intelligenz involvieren. KI wird in der Industrie schon seit einigen Jahren heftig diskutiert. Dabei lassen die Protagonisten aber gerne ausser Acht, dass es nicht die KI gibt, sondern sie sich aus diversen technologischen und mathematischen Ansätzen entwickelt.

 

Was ist KI?

Die wichtigste Erkenntnis zu einem besseren Verständnis ist die Tatsache, dass es die KI nicht gibt. KI setzt sich aus verschiedenen Teilgebieten zusammen. Eines ist das maschinelle Lernen (ML). Um maschinelles Lernen so gründlich wie möglich aufzusetzen, braucht man grosse Mengen von Datensätzen. Dadurch wird die KI trainiert, einen hochwertigen Algorithmus zu generieren. Er ist die mathematische Entsprechung und kann ein Ergebnis oder eine bestimmte Eigenschaft präzise erkennen. Der so erzeugte Algorithmus lässt sich auf Texte, Sprache, Objekte, Bilder, Bewegungen und Dateien anwenden. Um einen fortschrittlichen und funktionalen Algorithmus zu entwickeln, braucht man eine Menge Zeit, Wissen und Ressourcen.

Der Begriff der künstlichen Intelligenz hat gerade in den letzten Jahren eine inflationäre Karriere gemacht. Oft wurde er unzutreffend als Marketingetikett für so ziemlich alles gebraucht, das futuristisch klingen sollte. Vom Auto bis zum Standmixer ist alles dabei. Was KI derzeit nicht ist: ein selbstmotiviertes Bewusstsein. Derzeit haben wir noch kein Szenario á la «Matrix» zu befürchten. Im Moment ist jedes KI-basierte Produkt einfach sehr hilfreich und in der Regel für einen eng begrenzten Einsatzbereich entwickelt worden. Wie jedes Tool kann KI für gute oder eben weniger gute Zwecke eingesetzt werden.

 

Die KI auf der dunklen Seite

Will man künstliche Intelligenz für Angriffe nutzen, braucht man erstens die richtige Infrastruktur. Diese für eine eigene KI-basierte Lösung selbst zu entwickeln ist nicht ganz trivial. Das liegt an einigen besonders wichtigen und gleichzeitig knappen Komponenten wie beispielsweise GPUs, die zur Entwicklung von Algorithmen unabdingbar sind. Um dieses Problem zu umgehen, werden Angreifer wahrscheinlich eine traditionelle Methode wählen. Nämlich die notwendige Rechenleistung von existierenden Hosts und Rechenzentren abzuzweigen, die sie vorher mit entsprechender Malware infiziert haben.

Ist dieser Schritt erfolgreich abgeschlossen, ist es ein Leichtes Kreditkarteninformationen zu stehlen, Systeme in Amazon Web Services zu übernehmen oder ein Botnetz aufzubauen. Der Diebstahl von Rechenzeit ist heute bereits ein verbreitetes Problem, wie die CoinMiner-Malware beweist.

Der zweite Schritt besteht darin, den Algorithmus zu entwickeln. Dafür braucht man neben den Fähigkeiten auch Zeit und Geld. Wenn – wie bereits vorgekommen – Summen in Milliardenhöhe auf dem Spiel stehen, ist das aus Sicht von organisierten Cyberkriminellen die Anstrengung wert. Im dritten Schritt geht es darum von der Skalierung zu profitieren. Jetzt, im Besitz eines geeigneten Algorithmus, gilt es die anvisierten Ziele mithilfe von KI tatsächlich zu erreichen und die KI-basierte Lösung möglichst kontinuierlich einzusetzen. Die Ziele sind unterschiedlich, beispielsweise sich Zugang zu den Geschäftsgeheimnissen eines Unternehmens zu verschaffen, indem der Algorithmus vortäuscht es handele sich um menschlichen Datenaustausch. Oder eine millionenschwere Blackmail-Kampagne zu lancieren. Überall da, wo ein lukrativer Gewinn winkt, würde der Algorithmus benutzt werden.

 

Es gibt unterschiedliche vorstellbare Szenarien

Man kann sich beispielsweise CAPTCHAs vorstellen, die menschliche Informationen nutzen, um einer Maschine beizubringen, was ein Bild ist. Klickt ein Benutzer Bilder innerhalb des CAPTCHA und wählt er dabei die Felder aus, in denen beispielsweise Buchstaben oder Fahrzeuge zu sehen sind, lernt das neuronale Netz dadurch immer besser wie man Buchstaben erkennt oder eben Fahrzeuge. Hacker im Dark Web können sich in ihren Foren dieselbe Idee zunutze machen und eigene Algorithmen entwickeln. Solche, die präzise erkennen wie Buchstaben oder Fahrzeuge aussehen und mithilfe dieser Tools KI-basierte Dienste entwickeln, die CAPTCHAs durchbrechen.

Tatsächlich konnten Forscher ein Bot entwickeln, mit dem sie CAPTCHAs mit einer an 90 % grenzenden Wahrscheinlichkeit durchbrechen konnten. Ein skalierbarer und profitabler Ansatz. Denn Maschinen sind sehr effizient und ermüdungsfrei in der Lage CAPTCHAs zu täuschen und vorzugeben, es handele sich um echte User. So lässt sich diese Form der 2-Faktor-Authentifizierung problemlos umgehen. Es gibt zwar schon CAPTCHAs, die schwieriger zu umgehen sind, wie Schiebe-Puzzle oder drehbare Buchstaben. Allerdings sind diese Varianten weder besonders populär noch derzeit weit verbreitet.

 

Das Auffinden von Schwachstellen

Ein anderes mögliches Szenario für KI-basierende Angriffe könnte im Auffinden von Schwachstellen bestehen. Veröffentlichten Schwachstellen wird eine CVE-Nummer zugewiesen und beschrieben, welche Arten von Schwachstellen eine Hard- oder Software aufweist. Wie eingangs erwähnt, fällt das Lesen ebenfalls in den Anwendungsbereich der KI. Ein Angreifer könnte den Algorithmus trainieren, Details von Schwachstellen auf tausenden von Websites zu erkennen. Von da aus ist es nur noch ein kleiner Schritt, Schwachstellen automatisch und im grossen Stil auszunutzen.

Auf künstlicher Intelligenz basierende Lösungen könnten auch selbst zu betrügerischen Zwecken missbraucht werden. Beispielsweise ist eine KI-basierte Lösung besonders gut darin zu erkennen, ob der auf einer Webseite ankommende Datenverkehr legitimer Traffic von menschlichen Benutzern ist. Dazu nutzt der Algorithmus eine Vielzahl unterschiedlicher Faktoren wie den Typ des Browsers, den geografischen Ursprung des Traffics und die zeitliche Verteilung. Vorstellbar ist, dass ein KI-basiertes Hacker-Tool genau diese Informationen über die Zeit sammelt und schliesslich mit bereits entwendeten Anmeldeinformationen kombiniert und für einen Angriff einsetzt.

 

Warum man trotzdem hoffen darf

In diesem Falle ist die positive Nachricht, dass ausnahmsweise die «Verteidiger» in Sachen künstlicher Intelligenz einen Vorsprung von einigen Jahren gegenüber Hackern haben, die KI in grossem Stil einsetzen. Und es gibt bereits Lösungen für die beschriebenen Probleme. Das hat eindeutig mit den Einstiegshürden beim Thema KI zu tun. Diese Hürden sind aber nicht für alle gleich hoch. Die organisierte Kriminalität verfügt genauso über den Zugang zu den nötigen Ressourcen wie staatlich motivierte Akteure.

Wenn sich ein Unternehmen vor potenziellen Angriffen auf Basis von maschinellem Lernen und KI schützen will, muss man verstehen wie sie funktionieren. Ganz sicher muss man viel tiefer in ein Produkt einsteigen als es einem die Hochglanzbroschüren der Anbieter glauben machen wollen. Wichtig ist zu wissen, welcher Typ KI benutzt wird und wie genau er sich in einem Produkt, einer Lösung niederschlägt und ob es überhaupt einen nennenswerten Nutzen gibt. Es ist nicht falsch, ein Kanu oder eine Fregatte als «Boot» zu bezeichnen. Trotzdem sind beide nicht das gleiche. Es hilft, ein wenig Vorsicht walten zu lassen und genauer hinzusehen, wenn eine Hard- oder Software die Begriffe künstliche Intelligenz oder maschinelles Lernen für sich in Anspruch nimmt.

 

Infoservice

Cylance Deutschland GmbH

Prinzregentenstrasse 11, DE-80538 München

Tel. 0049 89 4120 71 56, www.cylance.com