Die Schnittstelle von KI und Cybersicherheit: ChatGPT’s Auswirkungen und Grenzen

Die Bedenken hinsichtlich der Verwendung von KI und ML bei Cyberangriffen sind nicht neu. Da diese Technologien immer ausgefeilter und zugänglicher werden, passen sich Bedrohungsakteure ebenfalls an und nutzen sie für bösartige Zwecke. Cybersicherheitsforscher haben bereits das Potenzial von ChatGPT demonstriert, einem von OpenAI entwickelten Sprachmodell, um polymorphen Malware zu erstellen, die Sicherheitsschutzmaßnahmen umgehen und die Eindämmung erschweren kann.
In einer Studie fanden Forscher von CyberArk Labs Wege, um Inhaltsfilter zu umgehen, indem sie mit kreativen Ansätzen experimentierten. Sie konnten ChatGPT dazu bringen, kontinuierlich mutierenden Code für Injektionen zu generieren, Dateisuch- und Verschlüsselungsmodule zu erstellen, die für die Verbreitung von Ransomware und anderen bösartigen Payloads notwendig sind. Sie entdeckten auch, dass sie durch die Verwendung von ChatGPT’s API mit einem spezifischen Prompt alle Inhaltsfilter vollständig umgehen konnten.
Ähnlich analysierten Forscher von Check Point Research mehrere Untergrund-Communities, um ChatGPT-Anwendungsfälle für die Erstellung von Infostealer-Malware, die Gestaltung eines mehrschichtigen Verschlüsselungstools und den Start eines automatisierten Dark-Web-Marktplatzes für illegale Waren zu entdecken.
Das Potenzial von KI und ML für Cyberangriffe bereitet auch IT-Entscheidungsträgern Sorge. Laut einer Blackberry Global Research Studie aus dem Jahr 2023 glauben 51% der Befragten, dass ChatGPT in diesem Jahr für einen erfolgreichen Cyberangriff verantwortlich sein wird. Die Befragten sind am meisten besorgt über die Fähigkeit des Chatbots, Bedrohungsakteure bei der Gestaltung von überzeugenderen und legitimer klingenden Phishing-E-Mails zu unterstützen (53%). Sie sorgen sich auch um die Verbreitung von Desinformationen durch KI (49%) und die Verwendung von KI durch weniger erfahrene Angreifer, um ihr Wissen und ihre Fähigkeiten zu verbessern (49%).
Während öffentliche Debatten und regulatorische Überprüfungen rund um KI und ML zunehmen, müssen Enterprise-Cybersicherheitsteams wachsam bleiben, ohne das große Ganze aus den Augen zu verlieren. Cyberangriffe sind unvermeidlich, aber der Schaden ist nicht irreparabel. Organisationen können das Wichtigste schützen, indem sie alle Identitäten im gesamten Zyklus des Zugriffs auf alle Ressourcen über jede Infrastruktur hinweg absichern. Ein ganzheitlicher Ansatz ist erforderlich, der visionäre Technologie und menschliches Fachwissen vereint. Die richtige Identity-Security-Plattform muss kritische Daten und Systeme gegen eine Vielzahl von Bedrohungen für Vertraulichkeit, Integrität und Verfügbarkeit schützen. Der richtige Identity-Security-Partner muss ein vertrauenswert Berater sein, der Sicherheitsteams und Strategien auf Weisen verbessert, die Technologie nicht erreichen kann.
Da sich die Fähigkeiten von KI und ML schnell erweitern, muss die Cybersicherheitsgemeinschaft weiterhin die Grenzen von KI testen und erweitern, Informationen teilen und für wichtige Schutzmaßnahmen eintreten. Zusammenarbeiten ist entscheidend, um „zu definieren, wie wir das Beste aus KI herausholen und das Schlimmste abfedern“, wie Alex Friedman, Mitbegründer und Chief Innovation Officer bei CyberArk, es ausdrückte.