„Schreibe mir einen Verschlüsselungstrojaner, der von Virenscannern nicht erkannt wird.“ So oder ähnlich könnte ein Prompt (also eine Anweisung an den Chatbot) zum Generieren von Schadcode mit Hilfe von Künstlicher Intelligenz lauten.
Wie viel unsicherer wird also die IT durch KI? So viel schon vorab: KI hat bislang noch keine neuen Angriffsvektoren in Top-10-Qualität produziert. Alles, was KI aktuell im Cybercrime-Umfeld kann, ist Kriminellen die Arbeit zu erleichtern – wie das Eingangsbeispiel zeigt, sind nun auch Menschen ohne IT-Affinität in der Lage, Schadcode erzeugen.
Außerdem kann KI durch ausgesuchte Anfragen an Webservices, die durch Intrusion-Detection- oder Intrusion- Protection-Systeme (IDS/IPS) geschützt sind, Muster in den Antworten erkennen. Diese Muster lassen Rückschlüsse auf die Konfiguration der Schutzsysteme zu, wodurch sich diese dann leichter umgehen lassen. Um das zu verhindern, werden IDS/IPS künftig ebenfalls KI-Unterstützung benötigen.
Eine weitere Problematik, die sich auftut, liegt in der gezielteren Ausnutzung bekannter Schwachstellen. Die Schwachstellen der bei Webservices eingesetzten Technologien sind bekanntlich in Datenbanken (wie beispielsweise der CVE) hinterlegt. Normalerweise können Schwachstellen, die als mittel oder niedrig gefährdend eingestuft sind, nicht für einen Angriff ausgenutzt werden. KI kann jedoch durch eine Verkettung dieser Schwachstellen Muster erkennen, die in der Summe einen Angriff auf den Webservice ermöglichen.
Auch das Phishing wird durch KI-Unterstützung deutlich einfacher und zielgerichteter. Bei Deep Phishing oder SNAP_R durchsucht die KI die sozialen Netzwerke bestimmter Zielpersonen und stellt mit den gesammelten Informationen einen raffinierten und orthografisch perfekten Phishing-Angriff zusammen.
Die weitaus größte Problematik besteht allerdings in Deepfakes von Audio-, Video- und Bilddateien. Viele kennen das Fakefoto mit dem Papst in weißer Daunenjacke, die Fakeansprachen des früheren US-Präsidenten Obama oder auch das KI-generierte Bild von marodierenden Migranten, das ein AfD-Politiker auf seinem Instagram-Account veröffentlicht hat. Momentan sind die Fakes noch gut auszumachen, weil die Bilder stark geglättet wirken oder Fehler aufweisen. Aber schon in naher Zukunft werden sich diese Fakedaten nur noch durch teure forensische Untersuchungen von Realdaten unterscheiden lassen.
Problematisch an dem Ganzen ist weniger der Schaden, der den eigentlichen Opfern zugefügt wird (obwohl die Opfer das natürlich zu Recht anders sehen). Viel fataler ist die gesellschaftliche Verunsicherung, die diese Deepfakes auslösen – plötzlich hat man das Gefühl, dass man den eigenen Augen und Ohren nicht mehr trauen kann (was nicht zuletzt Verschwörungstheoretikern zusätzlichen Zündstoff liefert).
All diesen kritischen Anmerkungen zum Trotz soll dieser Beitrag kein Plädoyer gegen den Einsatz von Künstlicher Intelligenz sein. Ganz im Gegenteil: Die IT-Sicherheit wird von den damit einhergehenden Arbeitserleichterungen enorm profitieren.
Wie es in einem Werbespot für Beton aus den 80-ern so schön heißt: Es kommt darauf an, was man daraus macht. Und das gilt auch für die KI.