Die Begeisterung über das Potenzial der generativen KI ist ungebrochen. Von Start-ups über Mittelständler bis hin zu Großkonzernen – viele denken derzeit über den Einsatz von GenAI-Tools nach. Die Unternehmen erhoffen sich von der Automatisierung und der damit verbundenen Effizienzsteigerung spürbare Vorteile, jedoch birgt die Umsetzung von KI-Projekten auch einige Risiken und Herausforderungen.
ChatGPT hat seit seiner Veröffentlichung im November 2022 einen regelrechten Hype rund um das Thema künstliche Intelligenz ausgelöst. Über ein Jahr später ist generative KI – also die Fähigkeit, auf Basis einer umfassenden Datenanalyse selbstständig Inhalte zu erzeugen – aus dem Alltag vieler Unternehmen nicht mehr wegzudenken. Sie setzen GenAI ein, um die Interaktion mit ihren Kunden zu optimieren, den Backoffice-Support zu entlasten oder Software-Code zu generieren. Der große Vorteil von Tools wie ChatGPT: Über Plugins ist eine direkte Integration in Geschäftsanwendungen möglich, so dass die eigenen Datensätze gezielt durchsucht werden können.
Gleichzeitig stehen in der Cloud vortrainierte Modelle bereit, die Unternehmen nur noch an ihre Anforderungen anpassen und mit ihren Daten füttern müssen. Auf diese Weise kann beispielsweise die Industrie ohne allzu großen Aufwand die Fertigung von Bauteilen an neue Gegebenheiten anpassen, die Prognosegenauigkeit erhöhen und damit die Workflows effizienter wie auch kostengünstiger gestalten. Zwar machen solche Lösungen Data Scientists nicht überflüssig, sie erweitern aber die Use Cases für Unternehmen deutlich.
GenAI, der Produktivitätsbooster? Angesichts der vielfältigen Möglichkeiten von GenAI verwundert es nicht, dass Analysten der Technologie ein enormes Potenzial bescheinigen. Laut der aktuellen Studie »The economic potential of generative AI« des McKinsey Global Institute (MGI), der volkswirtschaftlichen Denkfabrik der Unternehmensberatung, können Tools wie ChatGPT und DALL-E für einen jährlichen Produktivitätszuwachs von 2,6 bis 4,4 Billionen US-Dollar sorgen [1]. Im Vergleich zu bisherigen KI-Disziplinen wie Machine Learning und Deep Learning würde dies eine zusätzliche Steigerung um bis zu 40 Prozent bedeuten. Wird die freiwerdende Arbeitszeit für andere Aufgaben genutzt, kann der Produktivitätsschub sogar noch deutlich höher ausfallen. Nicht wesentlich anders sehen die Zahlen für Deutschland aus: Die Analysten rechnen bei einer frühzeitigen Einführung von GenAI mit einer Steigerung des hiesigen Bruttoinlandsprodukts um 585 Milliarden Euro bis 2040.
Gleichzeitig planen einer Studie von Dell Technologies zufolge mehr als drei Viertel der deutschen Unternehmen, die IT-Ausgaben für generative KI spürbar zu erhöhen [2]. Die Untersuchung zeigt auch, dass hierzulande On-premises- oder hybride IT-Architekturen für KI-Projekte besonders beliebt sind. Als Grund führen die Befragten IT-Sicherheit und Datenschutz (32 Prozent), höhere Agilität und bessere Kontrollmöglichkeiten (jeweils 29 Prozent) an.
Schritt für Schritt in eine neue Welt. KI-Projekte bringen einige Herausforderungen mit sich. Um Risiken zu vermeiden, müssen Unternehmen strukturiert vorgehen. Der erste Schritt ist eine Bestandsaufnahme der vorhandenen Fähigkeiten, die Identifizierung von Lücken und darauf aufbauend die Definition von Anforderungen für die Implementierung von generativer KI. Dazu gehört es auch, zu verstehen, wie das eigene Geschäftsmodell aufgebaut ist und welche konkreten Verbesserungen durch KI erreicht werden können. Nur so lässt sich der passende Use Case erarbeiten. Der zweite Schritt – die Data Preparation – ist wahrscheinlich sogar der eigentlich entscheidende für den Projekterfolg. Unternehmen, deren Daten weder harmonisiert noch problemlos zugänglich sind, werden die Vorteile von GenAI nicht ausschöpfen können.
Der Prozess der Datenaufbereitung umfasst das Zusammenführen, Bereinigen, Normalisieren, Transformieren und Mischen von Daten, damit diese in optimaler Qualität für analytische Aufgaben zur Verfügung stehen. Schon kleine Redundanzen und Lücken in Datensätzen können zu großen Problemen führen. Unternehmen kommen daher nicht umhin, ihre Datenbestände zu bereinigen: Dubletten, Ausreißer und fehlerhafte Informationen, die sich negativ auf Entscheidungsprozesse auswirken können, müssen entfernt werden. Gleichzeitig müssen Datenquellen aus den unterschiedlichsten Bereichen – sei es Marketing, Vertrieb, Service oder Produktion – zu einem einheitlichen Echtzeitdatensatz zusammengeführt werden. Erst dann kann die KI die bestmöglichen Handlungsempfehlungen ableiten. Sollte die interne Basis nicht ausreichen, kann ein Zukauf von Drittdateien sinnvoll sein. Eigene Informationen sind jedoch immer relevanter, denn erst mit ihnen lassen sich KI-Wertschöpfungsketten optimal anreichern.
Gleichzeitig müssen sich Unternehmen mit den Themen Compliance und Datenschutz auseinandersetzen. Wer der KI Firmen-Interna, Produktionsdaten oder sensible Kundeninformationen zur Verfügung stellt, riskiert zunächst einmal eine Verletzung der DGSVO: Diese schreibt vor, dass personenbezogene Daten nur verarbeitet werden dürfen, wenn eine entsprechende Einwilligung vorliegt. Insbesondere der Übermittlung in Länder außerhalb der EU schiebt der Gesetzgeber einen Riegel vor. OpenAI beispielsweise speichert die eingegebenen Informationen nicht nur in den USA, sondern nutzt sie auch für das Training der Algorithmen. Sensible Geschäftsinformationen können so in falsche Hände geraten, was nicht im Interesse des Unternehmens sein kann.
Validierte Designs und Services vereinfachen die Umsetzung. Ein weiteres Augenmerk müssen Firmen auf die IT-Infrastruktur legen. Historisch gewachsene Systemlandschaften können die Datenqualität mindern, die Pipelines intransparent machen und damit die Entwickler in ihrer Arbeit behindern. Gleichzeitig ist herkömmliche Hardware mit derartigen Workloads überfordert. KI-Systeme benötigen große Cluster von Grafikprozessoren (GPUs) oder Tensorprozessoren (TPUs) mit speziellen Beschleunigungschips. Nur diese sind in der Lage, Daten über Milliarden von Parametern parallel zu verarbeiten. Darüber hinaus sind spezielle MLOps-Tools, -Technologien und -Praktiken erforderlich, um ein Modell maßgeschneidert bereitstellen zu können.
Der wahrscheinlich einfachste Weg, ein KI-Projekt zu beschleunigen, ist deshalb die Verwendung sogenannter validierter Designs. Diese Lösungen vereinen eine Software-Suite für den KI-Lebenszyklus mit Frameworks und vortrainierten KI-Modellen sowie Server-Hardware inklusive Beschleuniger und Speicher quasi in einem Produkt. Ergänzt durch begleitende Services wird das Deployment von generativer KI so deutlich vereinfacht. Der skalierbare Blueprint ermöglicht es Unternehmen zudem, GenAI-Modelle entsprechend ihrer eigenen Daten anzupassen, wobei die Infrastruktur on-premises, hybrid oder in der Cloud liegen kann. In diesen getesteten und validierten Designs sind darüber hinaus Sicherheits- und Datenschutzfunktionen in allen Basiskomponenten nativ integriert.
Warum nicht komplett auslagern? Viele Projekte scheitern in der Praxis, weil Firmen vergessen, KI als langfristiges Engagement zu verstehen. Das heißt, dass eine kontinuierliche Pflege und Anpassung unabdingbar sind, was Aspekte wie Monitoring, Testing, erneutes Training und Fehlererkennung einschließt. Damit schützen sich die Projektverantwortlichen auch vor dem weit verbreiteten Problem des Model Drift, bei dem die Vorhersagegenauigkeit abnimmt und die Ergebnisse verfälscht werden. Doch unabhängig davon, in welcher Phase sich Unternehmen gerade auf ihrer KI-Reise befinden – den meisten wird wahrscheinlich die notwendige Expertise fehlen. Deshalb sind externe Services eine sinnvolle Lösung. Das reicht von der Data Preparation für einen präzisen, sauberen Datensatz im richtigen Format über die Implementierung inklusive Inferencing und Modellanpassung bis hin zu verbrauchsabhängigen Betriebsmodellen und der kompletten Auslagerung an einen Managed Service Provider.
Eine oft gestellte Frage zum Schluss: Lohnt sich KI auch für kleine Firmen? Die Antwort lautet Ja. Der Erfolg eines Projekts hängt in geringem Maße von der Unternehmensgröße ab, vielmehr hingegen von einem gut durchdachten Use Case. Keinesfalls sollten Organisationen die rasant fortschreitende Entwicklung verschlafen, denn immerhin erhöht der Einsatz von generativer KI das eigene Wertschöpfungspotenzial spürbar.
Dennis Scheutzel,
Sales Director Unstructured Data Solutions und AI
bei Dell Technologies Deutschland
[1] https://ap-verlag.de/mit-generativer-ki-den-produktivitaetsbooster-einschalten/86369/
https://www.mckinsey.de/~/media/mckinsey/locations/europe and middle east/deutschland/news/presse/2023/2023-06-14 mgi genai report 23/the-economic-potential-of-generative-ai-the-next-productivity-frontier-vf.pdf
[2] https://www.dell.com/en-us/perspectives/new-research-the-dell-genai-pulse-survey/