Nutzung von Large Language Models in Cybersecurity
Erkenntnisse aus dem neuesten Innovationsprojekt der Asecus und der ZHAW
Wir freuen uns, die Ergebnisse unseres neusten Projektes vorstellen zu können, welches in Zusammenarbeit mit dem Institut für Wirtschaftsinformatik der Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) durchgeführt wurde. Das Vorhaben wurde mit einem Innovationsscheck von Innosuisse unterstützt. Wir haben das Potenzial von Large Language Models als Cybersicherheitsberater für Organisationen untersucht. Hintergrund hierfür ist der Fachkräftemangel im Bereich Cybersicherheit, wodurch viele Unternehmen Schwierigkeiten haben, qualifizierte Berater zu finden. Besonders kleine und mittelständische Unternehmen (KMUs) können sich zudem die hohen Kosten für spezialisierte Cybersicherheitsberater oft nicht leisten. Mit dem Projekt wollten wir untersuchen, wie Large Language Models als kostengünstige und leicht zugängliche Alternative in der Beratung eingesetzt werden können.
Projektübersicht
Das Ziel der Studie war es, die Effektivität von Large Language Models bei der Auswertung von Ransomware Readiness Checks (RRCs) im Vergleich zu manuellen Auswertungen zu bewerten. Wir führten zwei Experimente in realen Umgebungen durch, die ein KMU und eine Gemeinde umfassten.
Jedes Experiment testete drei Szenarien:
- RRC ausgewertet manuell durch Security Consultants der Asecus AG
- RRC ausgewertet von einem Security Experten mit Unterstützung von ChatGPT
- RRC ausgewertet von einem Security Laien mit Unterstützung von ChatGPT
Die Auswertungen umfassten konkrete Security Empfehlungen und Netzdiagramme zu 6 unterschiedlichen Phasen eines Ransomware Angriffes. Die Qualität der Resultate die durch ChatGPT erzeugt werden konnten waren dabei beachtlich. Hier als Beispiel eine Gegnüberstellung der unterschiedlichen Netzdiagramme aus einer Phase von einem der Experimente.
Wichtige Erkenntnisse
- Effizienzsteigerung: Die von ChatGPT unterstützten Szenarien reduzierten die Auswertungszeit für RRCs erheblich und erzielten ähnliche Ergebnisse in etwa der Hälfte der Zeit, im Vergleich zu den manuellen Auswertungen.
- Qualität der Analyse: Obwohl die manuell ausgearbeiteten Ergebnisse in Bezug auf Genauigkeit und Anwendbarkeit besser abschnitten, wurden die mit ChatGPT generierten Ergebnisse dennoch als praktisch ausreichend bewertet.
- Nutzererfahrung: Sowohl der Security Experte als auch der Security Laie fanden die ChatGPT-Benutzeroberfläche herausfordernd. Der Security Experte fühlte sich auf die Überwachung des Prozesses reduziert, während der Security Laie Schwierigkeiten hatte, die Ergebnisse zu verstehen und Verantwortung für das Resultat zu übernehmen.
Basierend auf den Experimenten, gehen wir davon aus, dass auch zukünftig ein Security Experte für die Beratung erforderlich sein wird, um die Plausibilität von Ergebnissen zu beurteilen und die Verantwortung für Resultate zu übernehmen. Trotz der beeindruckenden Fähigkeiten von existierenden Large Language Models bleibt die menschliche Expertise derzeit unverzichtbar. Ein Security Experte kann sicherstellen, dass die generierten Empfehlungen nicht nur technisch korrekt, sondern auch auf die spezifischen Bedürfnisse und Herausforderungen des jeweiligen Kunden zugeschnitten sind. Darüber hinaus übernimmt der Experte eine wichtige Rolle bei der Validierung und Feinabstimmung der Ergebnisse, um deren Anwendbarkeit zu gewährleisten.
Large Language Modelle können jedoch bereits heute als wertvolle Unterstützung dienen und die Effizienz eines Beraters erheblich steigern. Sie ermöglichen es Experten, schneller auf relevante Informationen zuzugreifen, komplexe Analysen in kürzerer Zeit durchzuführen und somit insgesamt die Qualität und Geschwindigkeit einer Beratung zu verbessern.
Potenzial für Verbesserungen
Während bei den Experimenten mit den Standardmodellen ChatGPT-4 und ChatGPT-4o bereits beachtliche Resultate erzielt wurden, gibt es verschiedene Möglichkeiten, die Performance weiter zu verbessern. Bspw:
- Gezieltes Training: Durch das Training von Large Language Models auf spezifische Datensätze und Anwendungsfälle können deren Genauigkeit und Relevanz für eine Security Beratung weiter gesteigert werden.
- Retrieval Augmented Generation (RAG) Architekturen: Diese Ansätze kombinieren generative Modelle mit vorhandenen Informationsquellen (Security Frameworks, Security Anforderungen, Unternehmens Richtlinien, etc.), um noch präzisere und kontextbezogene Antworten zu liefern. Durch die Integration von RAG können die Modelle auf spezifische Unternehmensdaten und Dokumente zugreifen und somit fundiertere und massgeschneiderte Empfehlungen geben.
Zusammenarbeitserfolg
Wir danken der ZHAW für ihre wertvolle Partnerschaft und freuen uns auf weitere Projekte, um Innovationen in der Cybersicherheit voranzutreiben.
Falls Sie an weiteren Informationen zu diesem Projekt oder an einem Austausch über die Nutzung von Large Language Models im Bereich von Cybersecurity interessiert sind, setzen Sie sich mit uns in Verbindung und füllen Sie nachfolgendes Kontaktformular aus.
Bitte nehmen Sie Kontakt mit mir auf, ich interessiere mich für den Einsatz von Large Language Models im Bereich von Cybersecurity: