Artikel

Risk & Cyber Insights 

Cybersicherheit beim Einsatz von ChatGPT, Microsoft Copilot & Co

Überblick

In den letzten Jahren hat sich Künstliche Intelligenz (KI) zunehmend als mächtiges Werkzeug zur Effizienzsteigerung und Automatisierung von Prozessen etabliert. Die Einsatzmöglichkeiten sind vielfältigund für Unternehmen aller Größen und Branchen interessant:

  • Einsatz von Chatbots zur Kund:innen kommunikation
  • Large Language Models (LLMs) zur automatisierten Textgenerierung und Datenanalyse
  • Datengetriebene Entscheidungen
  • Optimierung von Geschäftsprozessen
Neue Gefahrenquellen

Trotz der vielseitigen Vorteile bringt der Einsatz von KI auch neue Risiken mit sich. Besonders im Bereich der LLMs, wie MetasLlama, OpenAIs ChatGPT und Microsofts Copilot, treten Sicherheitslücken auf, diebisher wenig erforscht sind.

So können Angreifer:innen gezielte Anfragen verwenden, um vertrauliche Informationen aus dem Modell zuextrahieren oder unbefugten Zugriff aufgeschützte Daten zu erlangen.

Unsichtbare Bedrohungen

Zu den schwerwiegendsten Schwachstellen gehören die Prompt Injection-Angriffe. Hierbei werden gezielt manipulierte Eingaben genutzt, um das Modell zu unerwünschten Handlungen zu verleiten. Ein hohes Risiko entsteht, wenn LLMs in Systeme wie E-Mail-Diensteintegriert werden, da dies zusätzlich einepermanente Angriffsfläche bietet.

Angreifer:innen können gezielt bösartige Befehle in sonst harmlose E-Mail-Nachrichten einbetten, um das Modell zu manipulieren: Wenn im Zuge einer Benutzer:inneneingabe das Abfragen von Informationen aus E-Mails notwendig wird, können die Anweisungen aus der Schad-E-Mail so von der LLM ausgeführt werden. Dies kann zu unerwünschten Aktionen, wie der Weitergabe sensibler Informationen führen, ohne dass der Benutzer bzw. die Benutzerin es bemerkt.

Diese Art der Manipulation stellt eineneue Bedrohung dar, die spezialisierte Prüfungen erfordert, um potenzielle Risiken frühzeitig zu erkennen undabzusichern.

Schwachstellen identifizieren und vermeiden: So schützen Sie Ihr Unternehmen

Wenn Ihr Unternehmen LLMs, wie beispielsweise Microsoft Copilot und ChatGPT, im Unternehmensalltag einsetzt, ist es entscheidend, diese neuartigen Schwachstellen zu berücksichtigen und passende Gegenmaßnahmen zu setzen. Mittels Sicherheitstests können die Risiken für Ihr Unternehmen identifiziert werden. Dazu eignen sich sogenannte Pentests. Denn nur wer die Risiken kennt, ist auch in der Lage die passenden Gegenmaßnahmen zu ergreifen. Dies umfasst zum Beispiel die Sensibilisierung und Schulung der Mitarbeitenden im Umgang mit KI gestützten Anwendungen und die Beschränkung des Zugriffs auf sensible Daten oder Systeme, die mit LLMs verbunden sind.

War der Artikel hilfreich?