Vom 25. bis 27. Oktober 2023 kamen in Nashville, Tennessee, Cybersecurity-Experten aus aller Welt beim diesjährigen ISC2 Secure Congress zusammen. Dabei wurde deutlich: Auch an der Informations- und IT-Security-Community geht das Thema künstliche Intelligenz nicht vorbei, und so war in diesem Jahr ein eindeutiger Schwerpunkt das Thema Sicherheit von KI.

Sicherheit von Machine Learning und generativer KI

Verschiedene Vorträge beschäftigten sich mit der Sicherheit von Machine Learning und generativer KI. Neben der Frage, wie sich durch geschicktes Prompt Engineering generative KI-Modelle zu unerwünschten (und ggfs. sicherheitskritischem) Ausgaben verleiten lassen – und was KI-Hersteller dagegen tun sollten – gab es auch mehrere Beiträge, welche die sichere Nutzung adressiert haben.

KI Modelle lernen aus Nutzungsdaten

Was sollten Anwender in Unternehmen also tun – oder auch lassen, um eine möglichst sichere Nutzung von generativer KI zu gewährleisten? Wichtigste Verhaltensregel: es sollten grundsätzlich KEINE vertraulichen Inhalte – wie z.B. Geschäftsgeheimnisse, personenbezogene Daten oder Intellectual Property – in Anfragen (Prompts) an KI-Modelle verwendet werden. Der Grund liegt eigentlich auf der Hand, wird aber von vielen Anwendern nicht gesehen: KI-Modelle lernen durch Nutzungsdaten. Die Eingaben der Nutzer können ggfs. vom Hersteller der Modelle zum weiterführenden Training der Modelle verwendet werden. Als prominentes Beispiel sei hier der Leak von vertraulichen Informationen des Elektronikherstellers Samsung genannt, dessen Mitarbeitende durch unbedachte Nutzung von ChatGPT Firmeninterna offengelegt haben (vgl. https://gizmodo.com/chatgpt-ai-samsung-employees-leak-data-1850307376).

Mitarbeiter für Nutzung von KI Modellen schulen

Firmen sollten also ihre Mitarbeitenden unbedingt hinsichtlich der Nutzung von generativen KI-Modellen wie ChatGPT schulen. Lebhaft wurde am Rande eines Vortrags diskutiert, ob das Thema Sicherheit und generative KI-Modelle möglicherweise dazu führen wird, dass Firmen die Nutzung von Cloud-Diensten überdenken. Große KI-Modelle werden heute nahezu ausschließlich Cloud-basiert betrieben. Wenn es aber hinsichtlich der Sicherheit Nutzungsvorbehalte gibt – kann es sein, dass Firmen beginnen, KI-Modelle klassisch im eigenen Rechenzentrum („on premises“) zu betreiben – um von den Vorteilen generativer KI-Modelle zu profitieren, aber in einer geschützten eigenen Betriebsumgebung? Obgleich das nur für größere Anwenderorganisationen überhaupt eine Option sein dürfte, lesen wir bereits über erste solche Nutzungsszenarien. Viele Experten in prognostizieren bereits eine erhebliche Nachfrage nach solchen Deployment-Szenarien.

Bitcoin-Zahlungen nicht immer anonym

Und welche spannenden Themen gab es sonst? Ein enorm aufschlussreicher Vortrag von Andy Greenberg beleuchtete, warum es Bitcoin Zahlungen nicht immer anonym sind – und wie Zahlungsströme durch Strafverfolgungsbehörden nachvollzogen werden können. Der Sicherheit von industriellen Systemen (OT) waren ebenso einige Vorträge gewidmet, wie aktuellen Angriffsvektoren auf IT-Systeme – wobei insbesondere ein Lessons Learned Vortrag zu vergangenen Cyberattacken auf sehr reges Interesse traf.

Insgesamt waren das für uns zweieinhalb hoch spannende Tage, die wertvolle Anregungen für die nächsten Wochen und Monate gegeben haben.

Weitere Artikel

Eine der größten Herausforderungen beim Aufbau und dem Betrieb von Informationssicherheitsmanagementsystemen nach ISO 27001 ist die angemessene Dokumentation. Diese ist Gegenstand der Überprüfungen beim Audit und dient der Organisation auch im Tagesgeschäft dazu, alle implementierten...
Risikovorsorgen sind vermeintlich genauso unliebsam wie Gesundheitsvorsorgen – aber ebenso wichtig! Unterschiedlichste Studien belegen: Angriffe auf IT-Infrastrukturen, Systeme und Applikationen nehmen deutlich zu. Die Folgen sind finanziell veheerend. Michael Kroker bezifferte zu Jahresbeginn einen Rekordstand...
In der Theorie klingt es einfach: Lieferanten werden nach definierten Kriterien ausgewählt, Risiken bewertet und dann ausgewählt. Die Praxis läuft meist anders. Speziell beim Onboarding von Lieferanten zeigt sich oft ein Muster kollektiver Verantwortungslosigkeit –...