Die Grenzen der LLM: Wegweisende KI-Technologie ist kein Alleskönner 

Illustration Absmeier foto freepik

Large Language Models (LLMs) sind voll im Trend. Ob privat oder in Unternehmen, auf LLMs basierende Chatbots wie beispielsweise ChatGPT von OpenAI generieren mit Deep-Learning-Modellen Texte in menschenähnlicher Weise. Auf Basis von massiven Mengen von Textdaten trainiert, können sie so auf viele Fragen Antworten liefern und Befehle ausführen.

Unternehmensentscheider prüfen momentan, welche Vorteile diese Sprachmodelle für ihre Organisation haben und wie man sie so schnell wie möglich implementieren kann. Konfrontiert sind sie dabei jedoch mit einer Lösungslandschaft, die teils ungeheure Use Cases verspricht und die LLM-basierte Tools als »Alleskönner« betiteln.

Für ein besseres Verständnis erläutert Mindbreeze, ein Anbieter von Appliances und Cloud-Services für Enterprise Search, angewandte künstliche Intelligenz und Wissensmanagement, wo die Technik ihre Grenzen hat und in welcher Nutzungsweise sie überhaupt im Geschäftskontext Sinn ergibt.

Ausgangsbedingungen und Einsatzzweck abwägen 

Sinnhaft ist der Einsatz eines LLM-basierten Tools nur dann, wenn die digitale Transformation eines Unternehmens auch eine Infrastruktur für die vernünftige Implementierung bereitstellt. Auch müssen die Einsatzbereiche der Technologie im Unternehmen festgelegt werden, in denen sie einen echten Mehrwert schafft – beispielsweise in der Kundenkommunikation oder im Vertrieb.

Die folgenden vier Punkte zeigen, wie eine zweckmäßige Implementierung von LLMs aussieht und für welche Aufgaben sie im Unternehmen eher ungeeignet sind.

  1. Automatisierte Verarbeitung großer Datenmengen und Texte 

LLMs verfügen über die Fähigkeit, große Mengen an Textdaten schnell und effizient zu verarbeiten. Damit punkten sie als wertvolles Werkzeug für Aufgaben wie das Textmining und die Datenanalyse. Zu den typischen Einsatzfeldern gehören neben der Durchführung von Datenanalysen, die Erstellung von Berichten und die Beantwortung von Kundenanfragen. Diese Art der Automatisierung vermeidet menschliche Fehler und führt potenziell zu erheblichen Kosteneinsparungen. Wenn Unternehmen ein LLM zur Automatisierung dieser Aufgaben nutzen, lassen sich aufwendige manuelle Arbeitsschritte einsparen.

  1. Maßgeschneidert für konkrete Einsatzszenarien 

LLMs überzeugen durch die Möglichkeit, sie breit in den unterschiedlichsten Geschäftsbereichen mit spezifischen Geschäftsanforderungen einzusetzen. Eine zusätzliche Antwortschärfung kann beispielsweise mit RAG (Retrieval-Augmented-Generation) erreicht werden. RAG bietet eine Möglichkeit, die Leistung eines LLMs durch gezielte Informationen zu verbessern, ohne dabei das zugrunde liegende Modell selbst zu verändern. Je detaillierter und geschärfter das LLM, desto besser die generierte Antwort und damit auch die Relevanz für Anwender. Öffentliche Modelle wie ChatGPT, Microsoft Copilot oder Google Bard, haben meist keinen Zugang zu internen Unternehmensdaten, die Anwender beispielsweise zum Erstellen eines Angebots brauchen.

  1. Wahrscheinlichkeiten sind keine Wahrheiten 

Der Output eines LLMs erfolgt auf Basis von Wahrscheinlichkeiten, nicht unter Berücksichtigung des Wahrheitsgehalts. Wenn es nämlich lediglich berechnet, welches Wort wahrscheinlich als Nächstes folgt, kann es zu unwahren Aussagen kommen, die man auch als »Halluzination« bezeichnet. Diese können teilweise verblüffend wahr in ihrer Formulierung klingen, sodass ein Fehler nicht beim ersten Hinsehen entdeckt werden kann. Unternehmen können das einschränken, indem sie dem Sprachmodell einen Kontext für die Antwortfindung bieten, wie beispielsweise eine Auswahl an Textdokumenten. Generieren LLMs nur Antworten aus ausgewählten Daten, ist das Risiko für Halluzinationen bereits reduziert.

  1. Kein Mehrwert ohne geeignete Datenbasis 

Die Versuchung ist groß, LLMs sofort einzusetzen, blickt man auf die Vorteile, die LLMs mit sich bringen. Allerdings verfehlen selbst die besten KI-gesteuerten Tools ohne geeignete Datenbasis ihren Zweck. Hintergrund: Die Fähigkeit einer KI richtige Antworten zu geben, hängt von der Qualität der Daten ab, aus denen sie Informationen bezieht. Hinzu kommt die Frage nach der erforderlichen IT-Infrastruktur, um ein LLM effektiv zu nutzen. Um also nachhaltig die Weichen für eine effiziente Nutzung zu stellen, ist es wichtig Innovationen im Blick zu behalten und die Digitalisierung grundsätzlich im Unternehmen voranzutreiben.

Dass LLMs ihren Anwendern in vielen Einsatzszenarien schon heute großen Mehrwert bieten, zeigt die Praxis. Dennoch belegen die geschilderten Punkte, warum es darauf ankommt, die Grenzen der Technologie vor der Nutzung im Arbeitsalltag genau zu kennen. Daher ist es für Unternehmen von Vorteil, vor dem Einsatz generativer Sprachmodelle erfahrene Partner an Bord zu holen, die sie bei der Implementierung beraten und unterstützen.

 


 

Die Grenzen der großen Sprachmodelle für KI

 

Künstliche Intelligenz (KI) ist eine der wichtigsten und spannendsten Entwicklungen unserer Zeit. Mit KI können wir komplexe Probleme lösen, neue Erkenntnisse gewinnen und unsere Kreativität entfalten. Doch KI ist nicht perfekt und hat auch ihre Grenzen. Das gilt besonders für die großen Sprachmodelle, die in den letzten Jahren immer mehr Aufmerksamkeit erregt haben.

Sprachmodelle sind Computerprogramme, die aus großen Mengen von Texten lernen, wie Sprache funktioniert und wie man sie verwendet. Sie können dann Texte erzeugen, analysieren oder übersetzen, die zu einem bestimmten Thema oder Zweck passen. Sprachmodelle werden zum Beispiel eingesetzt, um Chatbots zu erstellen, die mit Menschen kommunizieren können, oder um Inhalte für Webseiten oder soziale Medien zu generieren.

Die großen Sprachmodelle, wie GPT-3 von OpenAI oder BERT von Google, sind besonders leistungsfähig und vielseitig. Sie basieren auf tiefen neuronalen Netzen, die aus Milliarden von Wörtern bestehen und viele verschiedene Aspekte der Sprache erfassen können. Sie können oft erstaunlich flüssige und kohärente Texte produzieren, die wie von Menschen geschrieben wirken.

Doch diese Technologie ist kein Alleskönner und hat auch ihre Grenzen. Zum einen sind die großen Sprachmodelle sehr teuer und aufwendig zu trainieren und zu betreiben. Sie benötigen enorme Mengen an Rechenleistung und Energie, die nicht für alle zugänglich sind. Zum anderen sind die großen Sprachmodelle nicht immer zuverlässig oder ethisch. Sie können Fehler machen, falsche oder irreführende Informationen verbreiten oder diskriminierende oder schädliche Inhalte erzeugen.

Einige der Herausforderungen und Risiken der großen Sprachmodelle sind:

  • Mangel an Verständnis: Die großen Sprachmodelle lernen aus Texten, ohne deren Bedeutung oder Kontext zu verstehen. Sie können daher nicht zwischen Fakten und Meinungen unterscheiden, logische Schlüsse ziehen oder kritisch denken. Sie können auch nicht erklären, wie sie zu ihren Ergebnissen kommen oder wie sicher sie sich sind.
  • Mangel an Qualität: Die großen Sprachmodelle können zwar oft flüssige und kohärente Texte erzeugen, aber nicht immer sinnvolle oder relevante. Sie können sich wiederholen, widersprechen oder vom Thema abweichen. Sie können auch grammatikalische oder orthografische Fehler machen oder unpassende Wörter oder Ausdrücke verwenden.
  • Mangel an Verantwortung: Die großen Sprachmodelle spiegeln die Daten wider, aus denen sie lernen. Wenn diese Daten verzerrt, unvollständig oder fehlerhaft sind, können die Sprachmodelle auch verzerrte, unvollständige oder fehlerhafte Inhalte erzeugen. Sie können zum Beispiel Vorurteile oder Stereotype verstärken, Hassrede oder Gewalt fördern oder Urheberrechte oder Datenschutz verletzen.

Diese Grenzen bedeuten nicht, dass wir die großen Sprachmodelle verwerfen oder verbieten sollten. Sie bedeuten aber, dass wir sie mit Vorsicht und Verstand einsetzen sollten. Wir sollten uns bewusst sein, dass sie nicht alles können und nicht alles wissen. Wir sollten ihre Ergebnisse überprüfen und hinterfragen. Und wir sollten ethische Prinzipien und Richtlinien befolgen, um sicherzustellen, dass sie dem Wohl der Menschen und der Gesellschaft dienen.

Genki Absmeier

 

551 Artikel zu „KI LLM“

TrustLLM: Die europäische KI-Alternative

In Europa entsteht ein Large Languange Model, das zuverlässiger, offener, transparenter und energiesparender sein soll als ChatGPT. Der Schlüssel dazu ist Europas größter Computer, der derzeit in Jülich gebaut wird.   Seit das amerikanische Unternehmen OpenAI im November 2022 die Sprachmaschine ChatGPT zugänglich machte, geht das Thema durch die Decke. Können jetzt Personaler ihre Zeugnisse,…

Mit der richtigen KI-Strategie die Kunden wirklich erreichen

Die Daten machen den Unterschied, ob personalisiertes Customer Engagement erfolgreich ist.   Anwendungen auf Basis von künstlicher Intelligenz (KI) haben das Potenzial, die Interaktionen von Marken mit Kunden tiefgreifend zu verändern und so das Customer Engagement zu stärken. Mit KI-Lösungen sind Unternehmen künftig in der Lage, ihre Entscheidungsfindung datengestützt zu treffen und zu beschleunigen, aber…

Riskanter Balanceakt: Führungskräfte fordern Geschwindigkeit bei KI, IT pocht auf Sicherheit

Die Führungskräfte machen Druck auf die IT-Abteilungen für eine schnelle Einführung generativer KI. Die IT-Abteilungen wiederum fordern einen stärkeren Fokus auf Datensicherheit und -qualität. Es gilt Gleichgewicht zwischen Geschwindigkeit, Geschäftswert und Sicherheit herzustellen.   Eine kürzlich von Salesforce durchgeführte weltweite Umfrage unter 600 IT-Fachleuten hat ergeben, dass die Geschäftsleitung von der IT-Abteilung erwartet, generative KI schnellstmöglich…

GenAI im Unternehmenseinsatz – Wenn die KI anklopft

Die Begeisterung über das Potenzial der generativen KI ist ungebrochen. Von Start-ups über Mittelständler bis hin zu Großkonzernen – viele denken derzeit über den Einsatz von GenAI-Tools nach. Die Unternehmen erhoffen sich von der Automatisierung und der damit verbundenen Effizienzsteigerung spürbare Vorteile, jedoch  birgt die Umsetzung von KI-Projekten auch einige Risiken und Herausforderungen.

Kostentreiber KI: Strategie-Tipps zur Leistungs- und Kostenoptimierung

Unternehmen nutzen vermehrt künstliche Intelligenz zur Optimierung ihrer operativen Effizienz und Produktinnovation. Eine aktuelle Umfrage des Beratungsunternehmens McKinsey zeigt, dass 40 Prozent der befragten Unternehmen aufgrund der rapiden Fortschritte im Bereich der generativen KI ihre Investitionen in KI-Technologien generell erhöhen wollen [1].   Ein Nachteil des zunehmenden Einsatzes ist jedoch, dass KI – insbesondere generative…

USU nutzt Large Language Models für KI-Chatbot

Um Produktions- und Lieferketten in Krisenzeiten rasch aufbauen zu können, entwickelt das Forschungsprojekt KISS seit 2022 die KI-gestützte 3D-Plattform Semper-KI [1]. Das Projekt wird vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert.   Als einer der zehn Konsortialpartner ist USU für die Entwicklung eines intelligenten Assistenz-Systems auf Basis eines Chatbots zuständig.   Seit dem Durchbruch…

Generative KI verbessert die Behebung von Schwachstellen im Code erheblich

Large-Language-Modelle helfen Cloud-Entwicklern im Hinblick auf die Sicherheit. Durch den Einsatz KI-gesteuerter Lösungen zur Behebung von Schwachstellen kann DevSecOps erheblich verbessert werden.   Cyberbedrohungen entwickeln sich schneller als je zuvor. Um dem entgegenzuwirken und ihr Unternehmen besser zu schützen, ist das Ziel von CISOs im Prinzip relativ einfach: Fehlkonfigurationen und Schwachstellen in Anwendungen sollten möglichst…

Die kritische Rolle der Datenintegrität bei Nutzung generativer KI

Die Anwendung von KI in Unternehmen wird immer populärer. Diese Entwicklung deutet darauf hin, dass Führungskräfte von Unternehmen mehr denn je die Daten, die in ihrem Unternehmen fließen, bewerten müssen, da sich dies direkt auf den Erfolg von KI-Tools auswirkt. Dabei ist es wichtig, die entscheidende Rolle der Datenintegrität – und damit auch der Datenanreicherung…

»SAP erwartet durch KI einen riesigen Transformationsprozess, riesige Produktivitätssteigerungen«

Im Expert-Talk Schweiz 2024 sprachen Sybit und SAP über KI und Customer Relationship Management (CRM) in der Schweiz.   Die Welt des Customer Relationship Managements (CRM) und der Customer Experience (CX) erlebt durch den Einsatz von künstlicher Intelligenz (KI) eine bemerkenswerte Transformation. Im Sybit Expert-Talk Schweiz am 30. Januar 2024 sprachen live am Zürcher Flughafen…

Generative KI hat enorme Auswirkungen auf Softwareentwicklung und Softwaresicherheit

Seit der Veröffentlichung von ChatGPT im November 2022 arbeitet die Technologiebranche daran, solche auf annähernd menschlichem Level funktionierenden Konversationsschnittstellen zu etablieren und praktisch zu nutzen. Fast jedes größere Unternehmen verbindet heute seine interne oder produktbezogene Dokumentation mit einem großen Sprachmodell, sogenannten »Large Language Models« oder kurz LLMs, um Fragen möglichst schnell zu beantworten. Gleichzeitig kommen…

2024 werden weltweit 295 Millionen KI-PCs und GenAI-Smartphones ausgeliefert

2024 wird der Anteil der KI-PCs an der Gesamtmenge der PCs 22 Prozent betragen 22 Prozent der Basis- und Premium-Smartphones werden GenAI-Smartphones sein Der PC-Absatz wird um 3,5 Prozent steigen, der Smartphone-Absatz um 4,2 Prozent Laut einer neuen Prognose von Gartner wird der weltweite Absatz von KI-PCs und generativen KI-Smartphones (GenAI) bis Ende 2024 auf…