Article

Vertrauenswürdige KI

Effektive Sicherheitsmaßnahmen und Kontrollen sind beim Einsatz künstlicher Intelligenz notwendiger als je zuvor

Künstliche Intelligenz (KI) ist zu einer unverzichtbaren Technologie geworden, um die komplexen Herausforderungen von heute zu meistern. Lange Zeit wurde sie in der Wissenschaft und der Geschäftswelt lediglich im Hintergrund eingesetzt, doch neuere Entwicklungen im Bereich der Basismodelle, der Generativen KI und der „General Purpose AI“ haben die Künstliche Intelligenz ins Rampenlicht gerückt. Die erweiterten Möglichkeiten gehen mit bekannten Risiken einher, die sich nun auf neue Weise bemerkbar machen. KI durchdringt immer mehr Produkte, Services und Infrastrukturen. Dabei ist die Einhaltung von Qualitätsstandards und ethischen Gesichtspunkten wie Fairness, Transparenz, Richtigkeit, Zuverlässigkeit und Sicherheit von entscheidender Bedeutung.

Künstliche Intelligenz fasziniert Informatiker:innen und die Öffentlichkeit bereits seit der Prägung des Begriffs in den 1950er Jahren. Die einseitige Berichterstattung über außer Kontrolle geratene KI ist allmählich einer nüchternen, realistischen Betrachtungsweise gewichen: KI ist eine hochentwickelte Technologie – oder vielmehr eine Reihe von Technologien – mit dem Potenzial, erhebliche wirtschaftliche, wissenschaftliche und gesellschaftliche Fortschritte zu bewirken. Es handelt sich um äußerst leistungsfähige statistische Methoden und Algorithmen mit weitreichenden Möglichkeiten. Experten schätzen die weltweiten wirtschaftlichen Auswirkungen der KI (einschließlich Generativer KI) bis zum Jahr 2030 auf 13 bis 15,7 Billionen US-Dollar, was sich auf die Produktivität und Innovation sowie die steigende Verbrauchernachfrage nach KI-gestützten Produkten und Services auswirkt. 

Bei korrekter Anwendung ermöglicht KI, effektiver, schneller, intelligenter und individueller zu agieren. Außerdem können in kürzester Zeit riesige Datenmengen analysiert und verwertet werden – ein Vorgang, der früher sehr zeitaufwändig gewesen wäre. Die richtige Implementierung erfordert allerdings Kompetenz, Erfahrung und Disziplin. Open-Source-Toolkits haben die Softwareentwicklung effektiv „demokratisiert“ und zu einer raschen Verbreitung KI-basierter Tools geführt – von Expert:innen, aber auch von Noviz:innen auf diesem Gebiet. Dieser Trend hat sich mit der Einführung der Generativen KI weiter verstärkt, die die Möglichkeiten der KI auf die Erstellung kreativer Inhalte ausweitet. Basismodelle (Foundation Models) rücken zudem unzählige Funktionen in greifbare Nähe. 

Die rapide Entwicklung der Generativen KI

Die Einführung von ChatGPT im Jahr 2023 war ein großer Meilenstein für die KI. ChatGPT ist weder das erste große Sprachmodell (Large Language Model) noch das erste Generative KI-System (das neue Inhalte „kreiert“). Allerdings war es eines der ersten Systeme, die so leicht zugänglich und anwenderfreundlich waren, dass es die Generative KI – und die KI im Allgemeinen – in den Mainstream katapultierten. Ein weiteres wichtiges Merkmal dieses Meilensteins war das plötzliche Überwiegen sogenannter Basismodelle. Diese umfassenden tiefen neuronalen Netze (Transformer und Diffusionsmodelle), zu deren Erstellung die meisten Unternehmen allein nicht fähig wären, wurden der Öffentlichkeit zur Verfügung gestellt, um auf vielfältige Weise genutzt zu werden. 

Der „Transformer“ war ursprünglich darauf trainiert, das nächste Wort in einem Satz vorherzusagen. Durch zusätzliche Optimierung konnte er so angepasst werden, dass er Anweisungen befolgt und Fragen beantwortet, wie wir es von ChatGPT kennen. Durch flexible Basismodelle, die sich für vielerlei Aufgaben einsetzen lassen, entstand das neue Konzept der „General Purpose AI“. Frühere „schwache KI-Modelle“ waren hingegen auf eine bestimmte Aufgabe spezialisiert, die sie meist hervorragend beherrschten. Diese neue Entwicklungsstufe ist zwar nicht mit echter Intelligenz („Starke KI“) gleichzusetzen, stellt jedoch zweifellos einen wichtigen Schritt in diese Richtung dar. 

Mit der zunehmenden Anzahl von KI-Funktionen gehen jedoch auch neue Formen bereits bekannter Risiken einher. Große Sprachmodelle sind dafür bekannt, zu „halluzinieren“, d. h. äußerst selbstsicher und überzeugend sachlich falsche oder sogar unsinnige Antworten auf Fragen zu liefern. Es kann auch vorkommen, dass sie dieselbe Frage in verschiedenen Formulierungen unterschiedlich beantworten. Insbesondere wenn Tabuthemen ausgeklammert wurden, lassen sich mit kreativen Eingaben dennoch Antworten auf unerwünschte Fragen erschleichen. Generative KI-Modelle geraten zudem mit Urheberrechten in Konflikt, da die von ihnen generierten Inhalte häufig weitgehend mit den möglicherweise geschützten Trainingsdaten übereinstimmen. Ihre Fähigkeit, Deepfakes von Text, Audio, Bildern und Videos zu erstellen, grenzt an Identitätsdiebstahl, der eine eklatante Verletzung der individuellen Identität und Privatsphäre darstellt. Und schließlich öffnen ihre multimodalen Funktionen die Tür für betrügerische Aktivitäten und Cyber-Attacken in einem Umfang und einer Komplexität, gegen die nur wenige Unternehmen gewappnet sind. 

Zahlreiche Designentscheidungen wirken sich auf die Qualität von KI-Systemen aus

KI unterscheidet sich von „klassischen“ deterministischen Ansätzen insbesondere dadurch, dass sie von Daten statt von Regelwerken lernt. Dies erweckt den trügerischen Anschein von Objektivität. Modelle des überwachten Lernens (Supervised Learning) wie tiefe neuronale Netze und die Transformer-Architekturen hinter Generativer KI sind allerdings nur so gut wie die Qualität und der Umfang der Daten, mit denen sie trainiert wurden. Dies lässt sich gut am Beispiel von Computer-Vision-Aufgaben veranschaulichen. Ein Algorithmus wird anhand einer Reihe von Bilddaten trainiert, die von Menschen mit Labeln wie „Stoppschild“ versehen wurden. 

Das tiefe neuronale Netz klassifiziert jedes Bild, schlüsselt es in Merkmale auf (z. B. Kanten, Farben und Formen) und ordnet das Ergebnis dem Label zu. Diese Aufgabe kann das tiefe neuronale Netz äußerst effektiv ausführen. Doch selbst die besten Architekturen versagen, wenn sie durch fehlerhafte Trainingsdaten in die Irre geführt werden –beispielsweise, wenn Bilder von Stoppschildern mit dem Label „Einfahrt verboten“ versehen sind. Das so entstehende tiefe neuronale Netz ist folglich nicht in der Lage, Stoppschilder fehlerfrei zu erkennen, und ordnet sie entweder konsequent oder teilweise der Kategorie „Einfahrt verboten“ zu. Das KI-System ist also niemals besser als der Mensch, der es trainiert hat, und seine Qualität hängt gänzlich von der Auswahl, Vollständigkeit und korrekten Kennzeichnung der Daten ab. 

Ähnlich wie schwache KI-Systeme sind auch Basismodelle auf die korrekte Annotation, auch Labeling genannt, angewiesen, um Konzepte miteinander zu verbinden. Angesichts der gewaltigen Datenmengen ist das Labeling eine ausgeklügelte und halbautomatisierte Wissenschaft für sich geworden. Viele einfallsreiche Innovationen ermöglichen es ihren Entwickler:innen, die enormen Blackbox-Modelle mit einer Fülle von menschlichem Wissen zu versehen. Im Endeffekt sind es jedoch immer Menschen, die die Daten auswählen und kennzeichnen sowie Methoden zur effizienten Skalierung des Labelings erfinden. Dies erfordert viele Designentscheidungen, die zum Teil tiefgreifende Auswirkungen auf die Funktionsweise des KI-Systems haben können: 

  • Welche Trainingsdaten und Labels werden verwendet? 
  • Welche objektive Funktion wird angestrebt / welche Frage wird gestellt? 
  • Welcher Trainingsansatz kommt zur Anwendung? 
  • Welche algorithmische Architektur wird gewählt? 
  • Welche Anpassungen, Optimierungen und Ergänzungen werden vorgenommen?

Ein fehlerhaft implementiertes KI-Modell kann Dinge, die es nicht weiß (die nicht in den Trainingsdaten enthalten waren), systematisch diskriminieren und dadurch unbeabsichtigt historische Verzerrungen aufweisen. In manchen Fällen klassifiziert es Bilder anhand der falschen Elemente (Hintergrund statt Motiv des Bildes) – ein Fehler, der sich nur bei ausreichender Transparenz beheben lässt. Möglicherweise ist das KI-Modell auch instabil und trifft trotz ähnlicher Eingaben unterschiedliche Prognosen. Diese Risiken sind alles andere als neu und sind Modellentwickler:innen bereits lange vor dem „Zeitalter der KI“ bekannt. KI-Modelle basieren auf statistischen Modellen, die fast immer eine Antwort ausweisen – eine korrekte mit hohem Konfidenzintervall, eine falsche mit geringem Konfidenzintervall. 

Um die Möglichkeiten der KI auszuschöpfen, müssen wir ihren Ergebnissen vertrauen können

Anwender:innen sammeln Best Practices, die auf die jeweiligen Probleme, Daten oder gewünschten Funktionalitäten abgestimmt sind. Zwar gibt es keine Universal-Checkliste, doch diese bewährten Methoden basieren auf dem kollektiven Erfahrungsschatz von Entwickler:innen, Datenwissenschaftler:innen und Machine Learning Engineers und beugen bisher bekannten Risiken und Fehlern vor. Deloitte hat diese Erfahrungen in einem einfach verständlichen, aber dennoch umfangreichen „Framework“ aus Prinzipien für vertrauenswürdige KI zusammengefasst. Dieses Framework enthält die wesentlichen Punkte, die KI-Systeme erfüllen müssen, damit sie unser Vertrauen verdienen. 

Ob es nun um die Verbesserung der KI-Qualität oder um die Einhaltung kommender Vorschriften wie des EU-KI-Gesetzes oder von Standards wie AI TRISM geht, diese nahezu universellen Grundsätze für vertrauenswürdige KI bieten KI-Praktiker:innen und KI-Verantwortlichen gleichermaßen eine nützliche Orientierung. Sie gelten sowohl für die "klassische" KI als auch für die jüngst populäre Variante der "Generativen KI".

Fanden Sie diese Information hilfreich?