Vom 25. bis 27. Oktober 2023 kamen in Nashville, Tennessee, Cybersecurity-Experten aus aller Welt beim diesjährigen ISC2 Secure Congress zusammen. Dabei wurde deutlich: Auch an der Informations- und IT-Security-Community geht das Thema künstliche Intelligenz nicht vorbei, und so war in diesem Jahr ein eindeutiger Schwerpunkt das Thema Sicherheit von KI.

Sicherheit von Machine Learning und generativer KI

Verschiedene Vorträge beschäftigten sich mit der Sicherheit von Machine Learning und generativer KI. Neben der Frage, wie sich durch geschicktes Prompt Engineering generative KI-Modelle zu unerwünschten (und ggfs. sicherheitskritischem) Ausgaben verleiten lassen – und was KI-Hersteller dagegen tun sollten – gab es auch mehrere Beiträge, welche die sichere Nutzung adressiert haben.

KI Modelle lernen aus Nutzungsdaten

Was sollten Anwender in Unternehmen also tun – oder auch lassen, um eine möglichst sichere Nutzung von generativer KI zu gewährleisten? Wichtigste Verhaltensregel: es sollten grundsätzlich KEINE vertraulichen Inhalte – wie z.B. Geschäftsgeheimnisse, personenbezogene Daten oder Intellectual Property – in Anfragen (Prompts) an KI-Modelle verwendet werden. Der Grund liegt eigentlich auf der Hand, wird aber von vielen Anwendern nicht gesehen: KI-Modelle lernen durch Nutzungsdaten. Die Eingaben der Nutzer können ggfs. vom Hersteller der Modelle zum weiterführenden Training der Modelle verwendet werden. Als prominentes Beispiel sei hier der Leak von vertraulichen Informationen des Elektronikherstellers Samsung genannt, dessen Mitarbeitende durch unbedachte Nutzung von ChatGPT Firmeninterna offengelegt haben (vgl. https://gizmodo.com/chatgpt-ai-samsung-employees-leak-data-1850307376).

Mitarbeiter für Nutzung von KI Modellen schulen

Firmen sollten also ihre Mitarbeitenden unbedingt hinsichtlich der Nutzung von generativen KI-Modellen wie ChatGPT schulen. Lebhaft wurde am Rande eines Vortrags diskutiert, ob das Thema Sicherheit und generative KI-Modelle möglicherweise dazu führen wird, dass Firmen die Nutzung von Cloud-Diensten überdenken. Große KI-Modelle werden heute nahezu ausschließlich Cloud-basiert betrieben. Wenn es aber hinsichtlich der Sicherheit Nutzungsvorbehalte gibt – kann es sein, dass Firmen beginnen, KI-Modelle klassisch im eigenen Rechenzentrum („on premises“) zu betreiben – um von den Vorteilen generativer KI-Modelle zu profitieren, aber in einer geschützten eigenen Betriebsumgebung? Obgleich das nur für größere Anwenderorganisationen überhaupt eine Option sein dürfte, lesen wir bereits über erste solche Nutzungsszenarien. Viele Experten in prognostizieren bereits eine erhebliche Nachfrage nach solchen Deployment-Szenarien.

Bitcoin-Zahlungen nicht immer anonym

Und welche spannenden Themen gab es sonst? Ein enorm aufschlussreicher Vortrag von Andy Greenberg beleuchtete, warum es Bitcoin Zahlungen nicht immer anonym sind – und wie Zahlungsströme durch Strafverfolgungsbehörden nachvollzogen werden können. Der Sicherheit von industriellen Systemen (OT) waren ebenso einige Vorträge gewidmet, wie aktuellen Angriffsvektoren auf IT-Systeme – wobei insbesondere ein Lessons Learned Vortrag zu vergangenen Cyberattacken auf sehr reges Interesse traf.

Insgesamt waren das für uns zweieinhalb hoch spannende Tage, die wertvolle Anregungen für die nächsten Wochen und Monate gegeben haben.

Weitere Artikel

Adressen, Kontodaten, Bestellübersichten von Einkäufen auf Onlinemarktplätzen: Sensible Daten zu Personen und ihren Käufen waren laut Der Spiegel-Recherchen 2021 monatelang ungeschützt im Netz aufrufbar. Der Grund: Ein technischer Dienstleister von bekannten und beliebten Onlineportalen sicherte...
Anfang 2023 ist in der EU die zweite Version der Richtlinie zur Netzwerk- und Informationssicherheit (NIS 2) in Kraft getreten. Bis zum 17. Oktober 2024 müssen die EU-Mitgliedstaaten NIS 2 in nationales Recht umsetzen. In...
Privilegien-Eskalationen in Anwendungen – oft auch als Rechte-Ausweitung bezeichnet – sind Schwachstellen, die es Angreifern oder auch regulären Nutzern ermöglichen, auf Daten, Informationen oder Systemfunktionen zuzugreifen, für die sie keine Berechtigung haben. Angreifer können sich...