Article

"Der Erfolg von KI-Innovationen steht und fällt mit dem Vertrauen der Menschen"

Interview mit Nicolai Andersen, Managing Partner Consulting und Chief Innovation Officer bei Deloitte

Im Interview fordert Nicolai Andersen, Managing Partner bei Deloitte Consulting, eine Vertrauensbasis durch Transparenz und Nachvollziehbarkeit zu schaffen, um die breite Akzeptanz von Künstlicher Intelligenz zu fördern. Er betont die Wichtigkeit der Mitte April veröffentlichten Vorschläge der EU-Kommission zu „Exzellenz und Vertrauen“ in KI, durch die sie Innovationen und Investitionen in die Entwicklung Künstlicher Intelligenz fördern möchte.

Mit den jetzt vorliegenden Entwürfen stellt die EU-Kommission die Vertrauenswürdigkeit von KI klar ins Zentrum. Warum ist gerade der Begriff des Vertrauens hier wichtig?

Nicolai Andersen: Zunächst mal sollte allen klar sein: KI kann nur dann ihre volle Wirkung entfalten, wenn die Menschen ihr vertrauen. Wie wichtig Vertrauen für neue Technologien ist, sehen wir ja derzeit auch sehr gut im Rahmen der COVID-19-Pandemie. Ohne Vertrauen in die neuen Impfstoffe werden wir die Krise nicht bewältigen können, weil sich Menschen dann nicht damit impfen lassen möchten, und so eine Eindämmung des Virus erschwert wird. Nicht ohne Grund gibt es daher in vielen Bereichen rechtliche Vorgaben, die als vertrauensfördernde Maßnahmen des Gesetzgebers einzuordnen sind. Beispiele gibt es zuhauf, neben der bereits erwähnten Zulassung von Medikamenten sei hier die Qualitätssicherung von Lebensmitteln oder die Prüfung von Maschinensicherheit genannt. Wir dürfen nicht vergessen: KI ist für viele Menschen erstmal neu, das sorgt für Skepsis. Ganz unabhängig davon, ob diese jetzt gerechtfertigt ist oder nicht. Gleichzeitig ist die Technologie selbst mittlerweile so weit fortgeschritten, dass sie eine noch größere Rolle einnehmen und unsere Gesellschaft komplett verändern kann. Aus dieser Perspektive kommt der Entwurf der EU-Kommission gerade zum richtigen Zeitpunkt.

Das Thema Ethik spielt eine zentrale Rolle, sowohl in den vorliegenden Entwürfen als auch in der aktuellen Diskussion rund um KI. Ist es nicht ein Nachteil für Europa gegenüber den USA oder China, hier durch Regulierung explizit Anwendungsfälle auszuschließen, und steht das nicht im Widerspruch zum Ziel der Innovationsförderung?

Nicolai Andersen: Nein, dem würde ich klar widersprechen. Europäische Grundwerte sind eine Errungenschaft und es wäre ein großer Fehler, diese als Nachteil anzusehen. Ganz im Gegenteil: In der Innovationsgeschichte waren langfristig immer die Produkte und Ideen erfolgreich, die die Interessen der Menschen in den Mittelpunkt stellen. Unsere Grundwerte sind für mich daher die Basis erfolgreicher Innovation – und das gilt selbstverständlich auch für Künstliche Intelligenz. Es wäre aus meiner Sicht falsch, Innovation hier zu jedem Preis zu erzwingen. Die Anwendungsfälle, die die Kommission in ihrem Entwurf verbieten möchte…

…wie zum Beispiel das Social Scoring, also die Bewertung des Verhaltens von Bürgerinnen und Bürgern zur Sanktionierung…

Nicolai Andersen: …genau: Social Scoring, wie es teilweise in China praktiziert wird, stellt eine große Gefahr dar und steht im kompletten Widerspruch zu unseren Werten. Zumal ich tatsächlich in Frage stellen würde, ob in einem solchen System wirkliche Innovation noch möglich sein kann, braucht diese doch Kreativität und Freiheit. Es ist daher gut und richtig, dass die EU-Kommission hier klare Vorgaben machen möchte. Ein weiterer Punkt, warum ich glaube, dass der Fokus auf Ethik die Entwicklung von Innovationen eher fördert als hemmt: Zwar ist KI bereits heute umfassend im Einsatz und die Zahl der Anwendungsfälle nimmt täglich zu. Zur Wahrheit gehört aber auch, dass die KI, die unsere Welt Tag für Tag ein Stück einfacher macht, bestehende gesellschaftliche Ungleichheiten repliziert und dadurch zum Beispiel bestimmte Gesellschaftsgruppen oder Minderheiten benachteiligt. Die Innovation liegt für mich daher nicht in immer akkurateren und autonomeren Modellen, sondern in fairen und nachvollziehbaren KI-Systemen. Hier gibt es noch viel zu tun, und deshalb ist der Entwurf der Kommission hilfreich. 

Gleichzeitig gibt es soziale oder ethische Dilemmata, bei denen man durchaus gerne auf die vollumfängliche Nutzung von KI zurückgreifen und sich nicht einschränken möchte. Ein Beispiel ist hier die biometrische Identifizierung von Verdächtigen nach Terroranschlägen in Echtzeit. Wie sollte damit umgegangen werden?

Nicolai Andersen: Den konkreten Fall erfasst die Kommission ja explizit in ihren Vorschlägen und möchte dies nur in eng abgesteckten Grenzen erlauben. Allerdings kann die Antwort auf diese Frage nicht in jedem Fall „ja“ oder „nein“, „schwarz“ oder „weiß“ sein. Und es kann nicht jeder Anwendungsfall ex-ante vom Gesetzgeber betrachtet und reguliert werden. Aus meiner Perspektive ist es auch zu kurzgegriffen, hier nur den Gesetzgeber in der Pflicht zu sehen. Wir alle, die gesamte Zivilgesellschaft, Unternehmen, Privatpersonen haben ein Interesse daran, diese Frage gemeinsam zu beantworten. Auch deshalb ist das Thema Corporate Digital Responsibility in meinen Augen so wichtig. Ich bin überzeugt: Als Unternehmen habe ich die Verantwortung, dem Gesetzgeber dabei zu helfen, bestimmte Dinge zu verstehen. Und ich habe auch die Verpflichtung, dass Nutzerinnen und Nutzer bestimmte Dinge verstehen. Wenn wir ausschließlich den Gesetzgeber in der Pflicht sehen und als Unternehmen oder Privatpersonen nicht aus eigenem Antrieb verantwortungsbewusst handeln, dann kommt es zur Überregulierung. Und das würde sich tatsächlich nachteilig auf Innovation auswirken und diese bremsen. 

Aber wie kann das aussehen? Wie können Unternehmen konkret dafür Sorge tragen, dass ethische Aspekte bei der Entwicklung und Anwendung von KI nicht vernachlässigt werden?

Nicolai Andersen: Das Thema KI-Ethik nimmt ja gerade erst an Fahrt auf. Wir dürfen also nicht erwarten, dass hier jedes Unternehmen schon ein Konzept in der Schublade hat. Viele haben gerade erst verstanden, welchen Mehrwert der Einsatz von KI ihnen überhaupt bieten kann. Gleichzeitig müssen sich alle ihrer Verantwortung bewusst sein. Ein wesentlicher Ansatz muss sein, dass Unternehmen besser erklären, was konkrete KI-Anwendungen tun und was nicht, welche Risiken bestehen und welche nicht. Der „Beipackzettel“ wie bei Medikamenten muss auch für KI-Anwendungen erarbeitet werden. Durch das gemeinsame, interdisziplinäre Erarbeiten im Unternehmen wird die Verankerung der ethischen Aspekte so immer mehr zur Normalität, sodass sie von Anfang an bei jedem Anwendungsfall Betrachtung finden. Hier wollen und können wir auch als Professional Services Firm ansetzen und unterstützen. Mit unserem Trustworthy AI Framework geben wir konkrete Hilfestellung entlang des gesamten KI-Lebenszyklus.

Wie sehen für dich die nächsten Schritte aus auf dem Weg zu einem verantwortungsbewussten Umgang mit einer KI, der wir vertrauen können?

Nicolai Andersen: Zunächst mal freue ich mich, dass das Thema jetzt ganz oben auf der politischen Tagesordnung angekommen ist. Wir stehen aber gerade erst am Anfang des Gesetzgebungsprozesses, der bis zu zwei Jahre dauern kann. Aus meiner Sicht ist es wichtig, dass wir diese Zeit nutzen, um uns zu hinterfragen, um neue Ideen mit einfließen zu lassen und die Diskussion voranzutreiben, wie wir KI nutzen wollen – oder eben nicht. Wir müssen allerdings auch aufpassen, dass die Antworten am Ende nicht zu kurz kommen und hinter den Erwartungen zurückbleiben. Die Begriffe KI-Ethik oder auch Corporate Digital Responsibility dürfen nicht irgendwann den Verdacht wecken, dem „Ethics washing“ zu dienen.

Die Sorge, dass das ganze Thema KI-Ethik nicht mehr als Marketing ist, besteht ja tatsächlich. Wie kann dem konkret vorgebeugt werden?

Nicolai Andersen: Hier ist Glaubwürdigkeit der Schlüssel. Wir können und müssen viel über das Thema diskutieren. Aber wir müssen auch tätig werden. Von daher habe ich zwei konkrete Forderungen: Lasst uns das Thema über entsprechende Rollen tief in den Unternehmen verankern. Ich spreche dabei nicht von einer Neuauflage der berühmten CSR-Stabstelle, sondern von Expertinnen und Experten in jedem Fachbereich, die übergreifend zusammenarbeiten. Und der zweite Punkt betrifft die Ausbildung. Sei es in der Schule, während der Berufsausbildung oder im Rahmen beruflicher Weiterbildung: Wir müssen den ethischen Kompass schulen und gleichzeitig erklären, wie Algorithmen und Daten „funktionieren“, also was bei der Anwendung von KI passieren kann und was nicht.