Article

Wir und die Maschinen

Vier Experten über die Chancen und Grenzen von KI

2025 dürften weltweit rund 163 Zettabyte Daten generiert werden, das sind mehr als 50 Mal so viele wie 2013 und eine Menge, die wir ohne maschinelle Unterstützung nicht überblicken könnten. In Zukunft werden Maschinen uns daher nicht nur beratend zur Seite stehen, sondern selbst Entscheidungen fällen. Wo aber setzen wir die Grenzen, ohne uns um die Chancen einer offenen digitalen Gesellschaft zu bringen? Wir haben Experten und Praktiker aus der Wirtschaft nach ihren Vorstellungen befragt und sie von KI abbilden lassen.

Ein Beitrag aus Resonance – dem Deloitte-Jahresbericht 2018/2019

Viktoriya Lebedynska

Viktoriya Lebedynska

gestaltet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme die MINT-Initiative „Roberta® – Lernen mit Robotern“.

Frau Lebedynska, USA, Japan oder China setzen KI im Bildungsbereich ein. Wo liegen die Chancen für Deutschland und Europa?

VL: Die Technologie eröffnet uns Chancen insbesondere in zwei Feldern. Zum einen spielt der Bereich Aufklärung eine Rolle. Deutschland und Europa haben erkannt, dass das Thema KI vor allem mit ethischen Aspekten assoziiert wird. Deswegen liegen in der Aufklärungsarbeit große Entwicklungspotenziale. Zum anderen ist es wichtig, dass KI-Methoden, die wir hierzulande stark erforschen und einsetzen, mehr Anwendung in der Bildung finden.

Initiativen wie Roberta eignen sich sehr gut dafür, Kindern digitale Kompetenzen zu vermitteln. Wir überlegen uns beispielsweise: Wie lassen sich Plattformen so gestalten, damit die Kinder schon früh mit KI vertraut gemacht werden können. Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS hat die Initiative „Roberta – Lernen mit Robotern“ im Jahr 2002 gegründet. Mittlerweile ist sie eine der größten MINT-Initiativen in Deutschland und Europa.
Geht es um die Anwendung von KI aus der Bildungsperspektive, tun sich ebenfalls große Möglichkeiten auf. Sehr stark präsent ist der Bereich Learning Analytics, ein Teilgebiet der Bildungsforschung. Learning Analytics befasst sich mit KI-Methoden, die das Lernen und die Lernerfahrung verbessern. In Deutschland kann sie vor allem dort eingesetzt werden, wo die Lernenden besondere Unterstützung brauchen. So lassen sich unter anderem Studienabbruchquoten senken: Man stärkt zum Beispiel frühzeitig Studierende, die eine bestimmte Wahrscheinlichkeit aufweisen, ihre Hochschulausbildung nicht abzuschließen.

Wie können Wirtschaft, Wissenschaft und Politik digitales Know-how in der Gesellschaft gemeinsam verankern?

VL: Eines der zentralen Ziele sollte es sein, das Vertrauen in die Transparenz und Sicherheit von Prozessen und Daten herzustellen. Das ist ein komplexer und zeitaufwendiger Prozess. Die Schnittstellen sehe ich bei Fragen zu Datenschutz und -verlässlichkeit, aber auch zu Sicherheit und Transparenz. Wer hat die Autonomie oder die Kontrolle über die Daten? Wie fair sind Algorithmen und wie werten sie Daten aus?

Für den Umgang mit KI sind ethische Prinzipien nötig, an die sich Wirtschaft und Wissenschaft, aber auch öffentliche und politische Einrichtungen gebunden fühlen. Daran arbeitet die Fraunhofer-Gesellschaft intensiv. Unternehmen und Politik können auf Bildungsinitiativen wie Roberta zurückgreifen. Roberta bringt Kindern, Jugendlichen und Erwachsenen Grundkenntnisse in Robotik und Programmierung auf einer Open-Source-Plattform bei. Der Fokus liegt auf den Prinzipien algorithmischen Denkens. Die Kinder experimentieren zum Beispiel mit Lego-Robotern und verschiedenen Sensoren und erfahren, wie Entscheidungsbäume funktionieren oder selbstständige Bewegungen von Robotern zustande kommen. Das sind unter anderem Kompetenzen, auf die es später in der Wirtschaft ankommt.

 

 
Sebastian Klauke

Sebastian Klauke

verantwortet bei der Otto Group das E-Commerce-Geschäft und leitet den Umbau des klassischen Händlers zur Handelsplattform.

Herr Klauke, KI zieht immer mehr in die Unternehmen ein. Wie sieht ein verantwortungsvoller Umgang mit dieser Schlüsseltechnologie aus?

SK: Wir sind von echter künstlicher Intelligenz noch weit entfernt. Im Moment reden wir von „angewandter Statistik“. Die heutige KI kommt im Umgang mit Kunden vor allem dort zum Einsatz, wo wir Vorhersagen treffen. Denn diese werden in der Regel mit Kundendaten gefüttert. Verantwortungsvoller Umgang bedeutet also, unseren Kunden die Möglichkeit zu geben, selbst zu entscheiden, was mit ihren Daten geschieht.

KI hat das Potenzial, die nächste Stufe der Automatisierung zu zünden. Aber: Was in der Arbeitswelt genuin menschlich ist, wird an Wert gewinnen. Repetitive Tätigkeiten kann die Maschine übernehmen, Jobprofile werden angereichert, Mensch und Maschine können im Gespann eine Performance abliefern, die sonst nicht möglich wäre.

Im Kundenservice der Otto Group setzen wir Maschinen punktuell für Standardfragen ein. Unsere Kollegen gewinnen dadurch Zeit und Raum für die wirklich schwierigen Fragen. Sie bekommen die Freiheit, sich mit einem Thema substanziell zu beschäftigen, können ihre Kreativität und Empathie einbringen. Das kommt unserem Kundenservice zugute.

Wie können Unternehmen dafür sorgen, dass die Gesellschaft am technologischen Fortschritt teilhat?

SK: Eine wichtige Voraussetzung ist Transparenz. Unternehmen müssen sicherstellen, dass Kunden nachvollziehen können, was mit ihren Daten geschieht. Wir sollten also nicht auf entsprechende Regulierung warten, sondern uns proaktiv und auf Grundlage von Werten überlegen: Was nutzt den Kunden? Was kann und will ich mit offenem Visier vertreten?

Von diesem Ansatz profitiert nicht nur die Gesellschaft, sondern langfristig auch das Unternehmen selbst, auch in ökonomischer Hinsicht. Denn Kunden werden immer stärker darauf achten, was mit ihren Daten passiert und wie sich die Technologie für sie auswirkt. Unternehmen, die hier transparent und wertebasiert vorgehen, verschaffen sich einen erheblichen Wettbewerbsvorteil. 
 

 
Nicolai Andersen

Nicolai Andersen

ist Chief Innovation Officer bei Deloitte und leitet den Corporate Incubator „The Garage“, in dem neue Geschäftsmodelle entwickelt werden.

Herr Andersen, Algorithmen geben uns Einkaufstipps, digitale Assistenten sagen uns das Wetter voraus und Roboter unterstützen in der Pflege. Digitale Helfer begleiten uns immer mehr in unserem Alltag. Wie schaffen es Unternehmen, datenbasierte Produkte und Services mit gesellschaftlichen Wertvorstellungen in Einklang zu bringen?

NA: Zunächst müssen wir uns die Frage stellen: Warum wollen wir eigentlich, dass digitale Produkte und Services unseren Wertvorstellungen entsprechen? Ganz einfach: Es lohnt sich. Unternehmen sollten sich immer wieder klarmachen, dass der Erfolg eines Produktes oder einer Dienstleistung maßgeblich davon abhängig ist, inwiefern die Bedürfnisse des Nutzers berücksichtigt werden. Das können ganz grundlegende physiologische Bedürfnisse: Ein Supermarkt befriedigt das Grundbedürfnis nach Nahrung. Es gibt aber auch ein Bedürfnis nach Anerkennung, auf das zum Beispiel soziale Netzwerke mit ihren Plattformen einzahlen. Für Unternehmen heißt das: Sie müssen schon in der Entwicklungsphase überlegen, für welche menschlichen Bedürfnisse ein Produkt in Frage kommt.

Es gibt dieses wunderbare deutsche Wort Technikfolgenabschätzung. Konkret heißt das, dass sich Gesellschaft und Unternehmen damit beschäftigen müssen, welche Chancen, aber auch Risiken und Nebenwirkungen Technologie langfristig mit sich bringt. Unternehmen, die das tun, werden Produkte und Services entwickeln, die unseren gesellschaftlichen Wertvorstellungen entsprechen – und damit auch ihre Erfolgschancen im Markt erhöhen.

Die Digitalisierung ist ein globales Projekt. Daher stellt sich die Frage: Die Wertvorstellungen welcher Gesellschaft sind gemeint? Sprechen wir über Europa oder vielmehr über Deutschland? Damit kommen wir zu dem Punkt: Bei der Wertediskussion darf es nicht darum gehen, anderen Gesellschaften die eigenen Werte aufzuzwingen. Gleichzeitig war die europäische und damit auch die deutsche Stimme in der Debatte darüber, wie datenbasierte Produkte und Services aussehen sollen, in den letzten Jahren vielleicht etwas zu leise im Vergleich zu China und den USA. Wir als Gesellschaft und auch die hiesigen Unternehmen tun gut daran, sich damit auseinanderzusetzen, ob digitale Produkte und Services mit unseren Wertvorstellungen vereinbar sind. Wir sollten uns die Chance nicht entgehen lassen, die digitale Welt von morgen aktiv mitzugestalten.

Algorithmen brauchen Regeln, Innovationen Freiräume. Wie passt das zusammen?

NA: Das ist in der Tat nicht so gut miteinander vereinbar. Zumindest dann nicht, wenn Regeln die Freiräume einengen. Natürlich muss es Regeln geben, wie Algorithmen angewendet werden dürfen. Genauso wie Maschinen nach bestimmten DIN-Normen funktionieren müssen. Das Erfüllen von Regeln, vor allem im Prozess der Innovation, ist aber gerade für kleine Unternehmen ziemlich schwierig. Und wenn der administrative Aufwand für so eine Regelerfüllung die finanziellen Fähigkeiten eines Start-ups übersteigt, entstehen Innovationsbarrieren. Die Folge wäre, dass Innovation nur noch in großen Unternehmen stattfindet. Damit würden wir massive Chancen für den Wirtschaftsstandort Deutschland vergeben. Kleinere Unternehmen und Start-ups können ihr Innovationspotenzial dann de facto nicht entfalten.

Hinzu kommt: Technikfolgenabschätzung ist ein sehr komplexes Feld. Das bedeutet, dass strikte Regeln, die wir heute aufstellen, teilweise gar nicht darauf ausgelegt sein können, was digitale Technik morgen leisten kann. Deshalb müssen wir Regeln immer wieder hinterfragen und darüber nachdenken, ob sie uns nutzen und schützen oder eher belasten und bremsen.

Sehr offensichtlich ist dieses Dilemma beim Datenschutz: Schon der Name zeigt, wo hier die Probleme liegen. Wollen wir wirklich Daten schützen? Nein, eigentlich wollen wir Menschen schützen. Wenn Regeln zu eng gefasst sind, entsteht schnell ein Missverhältnis zwischen Kosten und Nutzen. Strenge Datenschutzregeln verhindern in vielen Fällen auch Innovation und damit zusätzlichen Nutzen für diejenigen, die diese Regeln eigentlich schützen sollen. Ein Beispiel ist die medizinische Forschung. Sie braucht große Datenmengen von möglichst vielen Menschen, um valide Ergebnisse in Form von Therapien liefern zu können. Ein zu strikter Datenschutz schützt zwar unsere Persönlichkeitsrechte, schränkt aber die Forschung in ihren Möglichkeiten ein. Ein vielversprechender Ansatz um die Kosten gering zu halten, aber den Nutzen von Innovation zu vergrößern, wäre, von der Wirkung her zu denken: Wie können wir den Missbrauch von personenbezogenen Daten möglichst verhindern, aber gleichzeitig Forschern die Nutzung der Daten ermöglichen? So lassen wir mehr Innovation zu, die uns Menschen zugutekommen kann.
 

 
Dr. Tina Klüwer

Dr. Tina Klüwer

ist Mitgründerin und Geschäftsführerin von parlamind. Das Berliner Start-up unterstützt Unternehmen mit KI-basierten Servicetechnologien.

Frau Klüwer, wie gehen Start-ups bei der Entwicklung von KI-Lösungen mit Ethik-Fragen um? Wie steht es um Transparenz, informationelle Selbstbestimmung und Datenvielfalt?

TK: Vor allem Diversität spielt bereits in der Entwicklung von KI eine ausschlaggebende Rolle. Das fängt dabei an, dass ein Team, das ein KI-Produkt entwickelt, am besten selbst eine gewisse Diversität widerspiegelt. Gerade bei regelbasierten Algorithmen ist das entscheidend, denn Regeln werden von Menschen geschrieben und das Mindset eines jeden Beteiligten beeinflusst natürlich die Ausgestaltung des Algorithmus. Verschiedene kulturelle und soziodemografische Perspektiven machen es deutlich einfacher, einen ausgewogenen Algorithmus zu entwickeln.

Für alle KI-Produkte, die mit Maschinellem Lernen arbeiten, ist Datenvielfalt unglaublich wichtig. Diese hat ebenfalls einen enormen Einfluss auf den Output eines KI-Produktes. Nur vielfältige und diverse Daten können zu Ergebnissen führen, die sämtliche Sichtweisen berücksichtigen. An dieser Stelle steht ein Start-up, das mit begrenzten Ressourcen arbeiten muss, natürlich vor anderen Herausforderungen als ein Unternehmen, bei dem ein ganzer Geschäftsbereich für Research & Development zuständig ist.

Das Thema Ethik in Verbindung mit künstlicher Intelligenz kommt vor allem dann zum Tragen, wenn KI-Systeme mit Menschen interagieren. Vor dem Hintergrund von ausreichender Transparenz ist es zum Beispiel sehr wichtig, dass ein Chatbot sich auch als Chatbot zu erkennen gibt.

Darüber hinaus muss das bereitstellende Unternehmen natürlich alle Reglements im Sinne der Datenschutzgrundverordnung einhalten und den Kunden oder Nutzern Wahlmöglichkeiten einräumen, welche Informationen sie von sich preisgeben möchten und welche für eine Weiterverarbeitung genutzt werden dürfen. Auch Systeme, die Entscheidungen über Menschen fällen, sollten in ethischer Hinsicht besonders auf eventuell vorhandenen Bias überprüft werden. Das gilt übrigens für alle Systeme, nicht nur solche, die KI-Technologie verwenden.

Wir bei parlamind sehen uns als KI-Experten auch in der Pflicht, unseren Kunden gegenüber transparent zu sein und allgemein verständlich zu kommunizieren, in welcher Konstellation der Einsatz von KI für sie sinnvoll ist und eben auch wann nicht. Nach diesem Credo sollten im Optimalfall aber alle Experten eines Spezialgebiets handeln.

Welche Voraussetzungen brauchen Start-ups in Deutschland, um erfolgreich an KI-Anwendungen arbeiten zu können?

TK: Ein Start-up muss mit geringen Ressourcen auskommen – wenige Entwickler und kein Geld. Gute Entwickler sind teuer und die Konkurrenz schläft nicht. Es muss also eine Finanzierung gefunden werden. Und die Investorensuche ist nicht nur nervenaufreibend, sie kostet auch unfassbar viel Zeit.

Viele Start-ups schaffen es schlichtweg nicht, weil ihnen auf dem Weg zur Kommerzialisierung das Geld ausgeht. Das muss einfacher werden und schneller gehen. Außerdem sind in Deutschland aktuell vor allem Förderungen von bis zu drei Millionen Euro vorhanden und erreichbar. Eine Unterstützung in dieser Größenordnung macht es Start-ups möglich, eine Technologie marktfertig zu haben. Das heißt, sie funktioniert und ist konkurrenzfähig. Aber um diese Technologie in den Markt zu tragen und in die Wachstumsphase zu bringen, braucht es größere Investitionen wie Series-A-, B- und C-Finanzierungen, die bei etwa 10 Millionen Euro anfangen. Förderungen in dieser Größenordnung sind in Deutschland bisher kaum vorhanden. Das hat zur Folge, dass gute Technologie ins Ausland verkauft wird und Deutschland dieses Know-how verliert.

Außerdem ist ganz entscheidend, dass Start-ups frühzeitig mit Kunden in Kontakt kommen, die ihre Technologie einsetzen und testen. Es wäre wünschenswert, dass hier auch von Bund und Ländern ein Signal gesetzt würde, indem Aufträge an Start-ups vergeben werden.

 

Warum Resonance?

Das Digitale ist Teil unseres alltäglichen Lebens. Es macht einiges einfacher und fordert uns heraus, Dinge zu hinterfragen. Neu zu denken. Zu gestalten. Dem Gegenüber zuzuhören und im Gespräch zu bleiben. Mehr denn je geht es um Dialog – und um Resonanz.