Article

Large Language Models: Neue Chancen für Unternehmen

So können ChatGPT bzw. Large Language Models Unternehmen branchenübergreifend bei operativen und analytischen Tätigkeiten unterstützen

Die Veröffentlichung von ChatGPT Ende 2022 gilt als iPhone-Moment für die Künstliche Intelligenz (KI). Vor dem Hintergrund dieser Marktentwicklung stellt sich jedoch die Frage, wie Unternehmen von dieser Innovation profitieren und diese sinnvoll und verlässlich für sich nutzen können. Im folgenden Deloitte-Beitrag zeigen wir Einsatzmöglichkeiten von Large Language Models auf und wie Unternehmen diese konkret umsetzen können.

Was sind Large Language Models?

Large Language Models (LLMs) wie GPT-3 können nicht nur Fragen beantworten und Informationen wiedergeben, sondern haben auch die Fähigkeit, diese Informationen zu interpretieren, umzuschreiben und völlig neue Texte zu generieren. Sie können kohärente und menschenähnliche Texte produzieren, die auf dem Wissen basieren, das ihnen vermittelt wurde. Dadurch sind sie äußerst vielseitig und können in einer breiten Palette von Anwendungen eingesetzt werden, darunter Übersetzungen, Texterstellung, Dialogsysteme und viele mehr.

Wie können Unternehmen von Large Language Models profitieren?

Mittels Retrieval Augmented Generation (RAG) nutzen Unternehmen Large Language Models mit ihrem spezifischen Wissen. Hierzu wird Large Language Models unternehmensspezifisches, nicht allgemein zugängliches Wissen aus unterschiedlichsten Quellen wie PDFs, Word-, PowerPoint-, Excel-Dateien und Datenbanken zur Verfügung gestellt, welches sie logisch verarbeiten. Diese Informationen werden in einer Wissensdatenbank gespeichert und können so in passendem Format und Umfang den Large Language Models bereitgestellt werden. Die Large Language Models dienen somit als reine Logikinstanz zur Zusammenführung der Informationen und werden lediglich mit Fachwissen aus der Wissensdatenbank gefüttert. 

Die Verwendung einer RAG-Modellarchitektur läuft typischerweise folgendermaßen ab:

Abb. 1: Typischer Ablauf bei der Verwendung einer RAG-Modellarchitektur

Ein Benutzer stellt eine Anfangsfrage, die an die Wissensdatenbank gesendet wird. Aus der Datenbank werden nun die Informationsabschnitte, die relevant für die gestellte Frage sind, extrahiert und zusammen mit der Frage des Nutzers an das Large Language Model übergeben. Das Large Language Model hat nun beides: die ursprüngliche Frage und die relevanten Informationsabschnitte aus internen Daten. Damit ist das Large Language Model in der Lage, Antworten speziell mithilfe der internen Daten zu geben oder eine gewünschte Aktion auszulösen, z.B. eine Pop-Up Meldung in einem Dashboard, Versendung einer E-Mail oder Ähnliches. 

Dies macht diese Technik vielseitig einsetzbar. Bspw. können Risikoanalysen auf Grundlage von Jahresabschlüssen und Prüfungsberichten schneller durchgeführt werden und vom System direkt geeignete Gegenmaßnahmen vorgeschlagen werden. 

Unser Service

Durch umfangreiche Branchenkenntnisse, tiefgehende praktische Erfahrung sowie ein ausgeprägtes technisches Verständnis in unserem Team von Fachexperten für Themen des Risikomanagements und Data Scientists können individuelle KI-Lösungen realisiert werden. Deloitte begleitet seine Kunden auf dem Weg zu eigens auf ihre Bedürfnisse zugeschnittenen Anwendungen und navigiert sie sicher durch typische Herausforderungen wie die Sicherstellung einer ethischen und sicheren Anwendung mithilfe unseres Trustworthy AI Frameworks.

In sechs Schritten führen wir unsere Kunden zum unternehmenseigenen KI-Tool:

Abb. 2: Sechs Schritte zum unternehmenseigenen KI-Tool

Gemeinsam mit dem Kunden erfassen wir in einem strukturierten Vorgehen zunächst die konkreten Anforderungen im Rahmen einer zwei bis vier-wöchigen Analyse. Dazu gehören je nach Erfahrung unserer Kunden der Aufbau eines Data Science-Teams im Kundenunternehmen oder die Auswahl der passenden Infrastruktur, bspw. On-Premises- oder Cloud-Umgebung, und Software, bspw. Versionsmanagement oder integrierte Entwicklungsumgebung (IDE). Im Zuge von moderierten Gruppendiskussionen identifizieren wir gemeinsam mit den Fachmitarbeitenden geeignete Anwendungsfälle im eigenen Unternehmen, wobei diese nach Relevanz und Dringlichkeit bewertet werden.

Hierbei kommen selbst in kleinen Einrichtungen schnell über 50 Anwendungsfälle zusammen. Unser Kunde kann für die Identifizierung der Anwendungsfälle einen eigenen Fokus z.B. auf Automatisierung von Risikoanalysen oder Risikoindikatoren legen. Die Anwendungsfälle analysieren wir anschließend auf Machbarkeit und hinsichtlich ihrer Anforderungen, sodass auf Kundenseite ein umfassendes Verständnis für die erforderlichen Voraussetzungen und den Umsetzungsprozess erreicht wird. Somit kann unser Kunde eine fundierte Entscheidung für einen oder mehrere umzusetzende Anwendungsfälle treffen.

Die eigentliche Umsetzung beginnen wir mit der Datenbeschaffung. Diese erfolgt je nach Anwendungsfall bspw. durch Web Scraping von News- oder Social-Media-Inhalten oder APIs (Application Programming Interfaces). Im Fall von Retrieval Augmented Generation (RAG) findet die Datenbeschaffung in der Regel in Form einer strukturierten Identifizierung relevanter unternehmensinterner Dateien und Datenbanken statt. Anschließend führen wir die Systementwicklung mit Modellauswahl und ggf. -training, Design und Realisierung einer Benutzeroberfläche durch.

Hierbei profitieren unsere Kunden von unseren vielfältigen Initiativen aus dem Deloitte aistudio, welches vorkonfigurierte KI-Tools bereitstellt, die schnell auf die jeweiligen Kundenanforderungen angepasst werden können. Darüber hinaus verfügen wir durch unsere Allianzpartnerschaften mit Google, Amazon Web Services (AWS) und Microsoft Azure über umfangreiche Kenntnisse in der effizienten Nutzung der über die Anbieter verfügbaren KI-Funktionalitäten.

Nach der Entwicklung integrieren wir das System in die bestehende IT-Infrastruktur und führen eine Testphase durch, die sicherstellt, dass das System störungsfrei funktioniert. In der Roll-out- und Schulungsphase wird das entwickelte System den Mitarbeitenden zur Verfügung gestellt und sie werden von uns hinsichtlich der Nutzung geschult. Eine kontinuierliche Überwachung und Weiterentwicklung, auch nach Projektabschluss z.B. durch Erfassung von Benutzerfeedback, stellen einen langfristigen Betrieb und hohe Qualität der Ergebnisse sicher. Wir unterstützen unsere Kunden auch bei diesen Aufgaben und Herausforderungen im operativen Betrieb.

Durch die passende Infrastruktur, ein ausgebildetes Team sowie die Begleitung von KI-Umsetzungen während des Projektes befähigen wir unsere Kunden, zukünftig eigenständig weitere Anwendungsfälle umzusetzen. Kontaktieren Sie uns gerne bei weiteren Fragen zu unseren Services.

Ihre Ansprechpartner

Sebastian Pachl

Manager | Financial Industry Risk and Regulatory
spachl@deloitte.de
+49 69 756956937

Fanden Sie diese Information hilfreich?