Article

Wie Versicherungen KI-Entscheidungsmodelle compliant nutzen können

Deloitte Lucid [ML] schafft Transparenz beim Einsatz von Machine Learning Modellen

Der Einsatz künstlicher Intelligenz eröffnet eine vielversprechende Palette an Optionen zur Optimierung und könnte die Versicherungsindustrie und ihre Wertschöpfungskette revolutionieren – angefangen von der Produktentwicklung über das passgenaue, individuelle Risikoprofil eines Versicherungsnehmers bis hin zur vollautomatisierten Schadensabwicklung. Dies steigert die Erwartungshaltung der Versicherungsnehmer und generiert Innovationsdruck. Gleichzeitig ist der Versicherungssektor aber eine der am stärksten regulierten Industrien, was zu einem potentiellen Zielkonflikt zwischen Innovation, Strategie, Regulierung und potentiellen Risiken sowie Compliance-Verstößen führen kann.

KI-Tools müssen transparente Entscheidungen vorschlagen

Der Einsatz von KI  im Zuge der Transformation der Versicherungsbranche schafft neue Möglichkeiten, Risiko-Entscheidungen deutlich rigoroser zu treffen. „Deep Learning“ neuronale Netze sind in der Lage, bei vielfältigen Dimensionen
(„Features“) komplexe Sachverhalte (Muster) zu erkennen. Deep Learning lebt von Komplexität und leidet gleichzeitig darunter: Denn um die Komplexität zu beherrschen, werden die Modelle selbst intransparent. Ihre Entscheidungs-vorschläge sind schwer nachvollziehbar, was unter Berücksichtigung der regulatorischen Anforderungen ein großes Problem darstellt. Insbesondere nach der EU-Datenschutz-Grundverordnung (DSGVO) sind erklärbare Systeme und nachvollziehbare Entscheidungen Pflicht. Dabei ist die Erklärbarkeit sowohl aus Sicht der KI einsetzenden Unternehmen als auch aus Sicht der Versicherungskunden unabdingbar für deren Einsatz (Art. 22 DSGVO). Im Kern ist hier entscheidend, dass nur Systeme erlaubt sind, die entsprechend „Transparenz“ aufweisen: zum einen, um von der automatisierten Empfehlung der „Maschine“ bewusst abweichen zu können, und zum anderen, damit der Informationsanspruch über die grundlegenden Mechanismen der Datenverarbeitung und Entscheidung vor allem gegenüber der Aufsicht und den Kunden erfüllt werden kann. Beispielsweise müssen auf Nachfrage dezidierte Gründe für eine potenzielle Ablehnung im Sach- und Personenversicherungsbereich zugänglich und übermittelbar sein.

 

KI „Black Boxen“ als Risiko

Erneut bestätigt wurde die Aktualität und Problematik jüngst durch
einen Workshop, den Deloitte im Rahmen einer Arbeitsgruppe der
Versicherungsforen Leipzig mit über 25 Teilnehmern aus Versicherungsunternehmen verschiedenster Größe und Sparten durchführte. Ziel des Workshops war u.a. die materiellsten Risiken im Zuge der Innovationen im Versicherungssektor auszuarbeiten. Hier zeigte sich, dass das Thema „Black Boxen“ im Rahmen von KI zu den bedeutenden Risiken und Fallstricken bei der Anwendung von neuen Technologien im Versicherungsumfeld gehören und mit hoher Dringlichkeit angegangen werden sollte. 

Insgesamt kann daher zusammengefasst werden, dass KI-gestützte Lösungen
keine „Black Boxen“ sein dürfen, sondern die getroffenen Entscheidungen immer nachvollziehbar sein müssen, auch wenn dies beispielsweise aufgrund der Vielzahl von Parametern, Schichten und Knoten eines neuronalen Netzes schwierig scheint. 

Das Deloitte aiStudio schafft Transparenz mit Lucid [ML]

Deloitte befasste sich frühzeitig mit dem Thema und hat in intensiver
Entwicklungsarbeit zusammen mit dem Deloitte aiStudio das Tool Lucid [ML]
erstellt, welches die treibenden Faktoren eines Machine Learning (ML) Modells nachvollziehbar darstellt: sowohl auf der sogenannten „globalen“ Ebene, um die allgemeine Funktionsweise des Modells zu verstehen, sowie auf „lokaler“ Ebene zur Erklärung einer bestimmten Risiko-Entscheidung. 

Analog zu bekannten Stress-Test-Ansätzen generiert Lucid [ML] gezielt
Testfälle zur Messung, wie das „Black Box“-Modell reagiert, um sich iterativ
ein Bild der Funktionsweise zu verschaffen. Eine große Stärke von Lucid [ML] liegt darin, dass es verschiedene Analysemethoden kombiniert und so eine robuste Einschätzung der Ergebnisse des „Black Box“-Modells treffen kann und zusätzlich auf die Stabilität des untersuchten „Black Box“-Modells hindeutet. Lucid [ML] ist auch Modell-agnostisch, d.h. es kann unterschiedliche „Black Box“-Modelle untersuchen – auch ML-Modelle, die mit Tabellen (Zahlen), Bildern und Texten arbeiten. 

XAI-Tools („erklärbare KI“) wie Lucid [ML] ebnen den Weg einer
regulatorisch konformen und transparenten Nutzung von KI-Tools im innovativen Wandel. Insbesondere stark regulierte Industrien wie die Versicherungsbranche können so von Innovation profitieren, ohne das Risiko einzugehen, die notwendigen Rahmenbedingungen nicht einhalten zu können. Die gewonnene Transparenz kann zudem dabei helfen, ML-Tools besser zu verstehen, Inkonsistenzen innerhalb der Modelle zu visualisieren und damit letztendlich die Tools selbst zu optimieren.

Mit Lucid [ML] sorgt Deloitte für Transparenz beim Einsatz von KI:
Nicht nur um regulatorische Anforderungen zu erfüllen, sondern um eine transparente Einführung und Nutzung von KI-basierten Lösungen und Prozessen zu stärken. 

Zum aiStudio