Cyberkriminelle sind gegenüber KI noch unentschieden
Menschliche Kontrolle wichtig

Cyberkriminelle sind gegenüber KI noch unentschieden

Porträtfoto von Chester Wisniewski, Global Field CTO bei Sophos
Am

KI ist und bleibt ein faszinierendes Thema. In unterschiedlichsten Szenarien planen und setzen wir bereits die Leistungskraft von Maschinen ein, auch in der Cyberabwehr. Aber kommen sie auch auf der Seite der Angreifenden zum Einsatz? Die Haltung der Cyberkriminellen zu KI ist bislang uneins und reicht von hoffnungsvoll bis feindselig.

Die KI-Early Birds unter den Cyberkriminellem teilen ihre Tools, auch wenn die Ergebnisse noch nicht sehr eindrucksvoll sind. Einige haben aber für sich entschieden, dass Large Language Models (LLMs) noch zu sehr in den Kinderschuhen stecken, als dass sie für erfolgreiche Angriffe taugen.

Bei der proaktiven Aufdeckung von Cybergefahren konzentriert sich KI auf die Klassifizierung von Telemetrie. Die Menge an Daten, selbst bei einem kleinen Kundenstamm, ist gewaltig. Daher ist das Finden von Mustern und die Alarmierung der menschlichen Analysten ein unverzichtbarer Bestandteil moderner Sicherheitslösungen.

KI ist Fleiß-Vorbild im Team

KI verbessert die Fähigkeit, verdächtige Muster und Verhaltensweisen zu erkennen, indem sie ein Maß an Robustheit einführt, die bei manuellen, regelbasierten Systemen nicht möglich ist. Wenn das Maß an Cybersecurity-Daten wächst, wird das Beibehalten von manuellen Systemen sehr teuer und zeitraubend – im Vergleich dazu blüht KI angesichts von immer mehr Informationen regelrecht auf. Ihrer statistischen Natur gemäß entwickelt sie komplexe Entscheidungen über verdächtiges Verhalten, die mit menschlichem Bemühen nicht reproduzierbar sind.

Um die Einbindung von KI strategisch anzugehen, sollten Organisationen zunächst behutsam die Pflege der Daten planen. Das bedeutet, zum Beispiel nicht in die Falle der willkürlichen Datensammlung zu geraten, denn gute Daten sind die Lebensader von KI. Schlechte Planung bei der Datensicherung kann zu Verzögerungen und hohen Kosten für zu generierende Gütesiegel führen.

Bedrohungen schneller entdecken mit KI

Der Einsatz von KI in der Cyberabwehr bietet eindeutig Vorteile. Durch das Trainieren von Angriffsmustern kann KI etwa lernen, verdächtige Aktivitäten in Echtzeit zu bemerken – selbst bei immensen Datenmengen. KI lässt sich so als Hilfe bei automatisierten Prozeduren einsetzen. Ein Beispiel: KI-generierte Einschätzungen des Schweregrades einer Abweichung könnten als Grundlage für eine Regel verwendet werden, die ein System automatisch in Quarantäne setzt. Bei der Wiederherstellung kann KI bei der Triage, das heißt der Entscheidung der Handlungsreihenfolge, nützen. Ebenso bei dem Verständnis der Folgen einer schadhaften Aktivität.

Die greifbaren Vorteile sind daher zahlreich: Von einer genaueren Aufdeckung von Gefahren, über geringere Response-Zeiten und effizienteren Einsatz von Analysten-Zeiten bis hin zur Fähigkeit zur Generalisierung für zukünftige Vorfälle. Zudem halten KI-generierte Lösungen die Kosten und Wartungen manueller Ansätze kleiner.

Integration der KI ins menschliche Team

Bei der Implementierung von Cybersicherheitslösungen steht man vor einigen Herausforderungen. Die Beschaffung von Qualitätsdaten ist ein dauerhaftes Problem, weil es so unverzichtbar ist für das Training performanter KI-Modelle. Schlampiger Umgang mit Daten mündet unmittelbar in teuren Konsequenzen und fehlerhaften Modellen. Ein eher praktisches Problem bei der KI-Integration ist die Vertrauensbildung mit den menschlichen Analysten. Viele KI-Modelle liefern wenig zufriedenstellende Erklärungen für ihre Vorhersagen, und benötigen daher sehr sorgfältige Auswertungen und umfassendes Testen.

Hinsichtlich der Zusammenarbeit muss man bedenken: KI dient als eine Art Powermultiplikator, der die Produktivität verbessert und neue Möglichkeiten schafft. Aber es ist wichtig zu verstehen, dass KI – auch mit der Ausbreitung von LLMs – kein Allheilmittel ist, weil sie unrichtige Informationen als Fakt herausgeben kann.

KI bleibt eine sehr effektive Lösung für zahlreiche Probleme, kann aber den Bedarf an menschlicher Intervention und Qualitätskontrolle nicht ersetzen. In der näheren Zukunft könnten wir einen Paradigmenwechsel sehen, wo menschliche Expert:innen zu KI-Editoren werden. Menschen könnten KI die Initialisierung von bestimmten Prozessen erlauben und die Ergebnisse mithilfe ihrer menschlichen Expertise feinjustieren.

Bildnachweis: ©Depositphotos.com

Über den Autor

Porträtfoto von Chester Wisniewski, Global Field CTO bei Sophos

Chester Wisniewski Chester Wisniewski ist als Global Field CTO bei Sophos aktiv und blickt auf über 25 Jahre Erfahrung in der Cybersecurity-Branche zurück. Er arbeitet mit Sophos X-Ops-Forschern auf der ganzen Welt zusammen, um die neuesten Trends, Forschungsergebnisse und kriminelles Verhalten zu verstehen. Chester Wisniewski lebt und arbeitet in Vancouver und spricht regelmäßig auf Branchenveranstaltungen wie RSA Conference, Virus Bulletin und Security BSides. Er fördert Neueinsteiger im Sicherheitsbereich durch seine ehrenamtliche Arbeit bei InfoSec BC. sophos.com/de-de
Zum Autorenprofil

Kommentare

Kommentar schreiben:

Deine E-Mail-Adresse wird nicht veröffentlicht.

Erhalten Sie jeden Monat die neusten Business-Trends in ihr Postfach!
X