Eine Studie von Europol zeigt, welche Chancen und Möglichkeiten KI-Systeme wie ChatGPT für Strafverfolgungsbehörden und Sicherheitsverantwortliche bieten.
ChatGPT steht momentan voll im Rampenlicht. Tägliche Neuigkeiten und permanent neue Anwendungsformen sorgen für ein außergewöhnliches mediales Interesse an KI-Systemen. Als Reaktion auf die massive öffentliche Aufmerksamkeit hat die europäische Polizeibehörde Europol eine Reihe von Workshops mit Fachexperten veranstaltet, deren Resultate in einer Studie mündeten. Sie ist leider nur für Strafverfolgungsbehörden einsehbar, eine gekürzte Fassung ist jedoch öffentlich verfügbar und liefert interessante Einblicke. Die Ermittler heben darin insbesondere die neuen Gefahren hervor, die von ChatGPT ausgehen. Daneben sehen sie aber auch erhebliche Potenziale für Ermittler und Security-Verantwortliche.
Schon bald nachdem ChatGPT öffentlich nutzbar war, betraten Cyber-Kriminelle die Bühne und versuchten mithilfe der KI zum Beispiel Schad-Software zu erzeugen. OpenAI, die Firma hinter ChatGPT, hat darauf reagiert und eine Reihe von Sicherheitsfunktionen eingebaut, um eine böswillige Nutzung des Sprachmodells zu verhindern. So bewertet beispielsweise ein Mechanismus generierte Resultate am Ende daraufhin, ob der Inhalt sexistisch, hasserfüllt, gewalttätig oder selbstschädigend sein könnte und verweigert gegebenenfalls die Antwort.
Schutzmechanismen können umgangen werden
Allerdings warnt Europol: „Viele dieser Sicherheitsvorkehrungen lassen sich relativ leicht durch Prompt-Engineering umgehen“. Prompt-Engineering dient dazu, die Fragestellung an die Verarbeitungsweise natürlicher Sprache durch das KI-System anzupassen, um die erzeugte Antwort zu beeinflussen. Anders gesagt geht es um die Kunst der Fragestellung. Prompt-Engineering kann missbraucht werden, um die Beschränkungen der Content-Moderation zu umgehen und somit schädliche Inhalte zu produzieren. Wie das
Nachrichtenmagazin „Der Spiegel“ aufzeigt, entwickelt sich Prompt-Engineering Infolgedessen gerade zu einem eigenen Berufsbild.
Während Entwickler und Hersteller von KI-Systemen häufig abwiegeln, dass die Systeme sich noch in einem relativ frühen Entwicklungsstadium befänden und im Zuge von Verbesserungen Schlupflöcher geschlossen würden, warnt Europol: „Angesichts der Komplexität dieser Modelle wird es keinen Mangel an von Forschern und Bedrohungsakteuren neu entdeckten oder entwickelten Umgehungsmöglichkeiten geben“. Als Beispiel nennt Europol die Möglichkeit, Problembegriffe durch harmlose Wörter zu ersetzen oder den Kontext zu ändern. Oder eine Antwort einzugeben und ChatGPT um die dazugehörige Frage zu bitten. Beispiel: Welche Frage führt zur Erzeugung einer Software für einen erfolgreichen Angriff gegen iPhones. Die Antwort darauf könnte als neue Frage verwendet werden und eventuell liegt danach eine neue Malware vor.
„Reduzieren wir ChatGPT auf das Wesentliche, wird das Sprachmodell basierend auf einem riesigen Korpus von Online-Texten trainiert, aus dem es sich „merkt“, welche Wörter, Sätze und Absätze am häufigsten kollokiert sind und wie sie miteinander in Verbindung stehen“, erläutert Europol. Zusätzlich optimieren viele technische Tricks und zusätzliches Training mit Menschen das Modell speziell für den Dialog.
Unterstützung für Security-Spezialisten
Ermittler sollten sich dieser Fähigkeiten bewusst sein, können sie aber auch zu eigenen Zwecken einsetzen. Etwa zur Analyse von auffälligem Source- oder Maschinencode. IT-Forensiker und SOC-Mitarbeiter versuchen oftmals herauszufinden, was ein Programm macht und ob es schädlichen Code enthält. KI kann dabei ein wertvolles Hilfsmittel sein oder den Prozess beschleunigen. Ebenso kann KI eingesetzt werden, um gefährliche Fehler im Sourcecode einer Anwendung zu finden. Security-Spezialisten dürften in naher Zukunft weitere Einsatzformen finden, von denen sie sicherlich nicht alle öffentlich machen werden. Aber den Security-Spezialisten in Unternehmen kann schon damit geholfen sein, von Systemen wie ChatGPT Sicherheitstipps und -ratschläge generieren zu lassen oder Empfehlungen zum Umgang mit bestimmten Problemen zu erzeugen.
Europol weist darauf hin, dass nicht vergessen werden sollte, dass alle Informationen, die ChatGPT liefert, im Internet frei verfügbar sind. Kriminelle wären theoretisch also auch ohne KI in der Lage, an gewünschte Informationen zu gelangen. Allerdings vereinfacht die Möglichkeit, mit kontextbezogenen Fragen bestimmte Ergebnisse zu generieren, die noch dazu eine Zusammenfassung oder Korrelation verschiedener Quellen sein können, die Arbeit böswilliger Akteure erheblich.