Über die Grenzen großer SprachmodelleWegweisende Technologie ist kein Alleskönner

11. März 2024

Chatbots wie beispielsweise ChatGPT von OpenAI basieren auf Large Language Models (LLMs) und generieren mit Deep-Learning-Modellen Texte in menschenähnlicher Weise. Auf Basis von massiven Mengen von Textdaten trainiert, können sie so auf viele Fragen Antworten liefern und Befehle ausführen.

Viele Unternehmensentscheider prüfen zurzeit, welche Vorteile LLMs für ihre Organisation haben und wie man sie so schnell wie möglich implementieren kann. Konfrontiert sind sie dabei jedoch mit einer Lösungslandschaft, die teils ungeheure Use Cases verspricht und die LLM-basierte Tools als “Alleskönner” betiteln. Doch auch diese Technik hat ihre Grenzen hat und es bleibt zu untersuchen, in welcher Nutzungsweise sie überhaupt in einem Geschäftskontext Sinn ergibt.

Sinnhaft ist der Einsatz eines LLM-basierten Tools nur dann, wenn die digitale Transformation eines Unternehmens auch eine Infrastruktur für die vernünftige Implementierung bereitstellt. Auch müssen die Einsatzbereiche der Technologie im Unternehmen festgelegt werden, in denen sie einen echten Mehrwert schafft – beispielsweise in der Kundenkommunikation oder im Vertrieb. Die folgenden Punkte zeigen, wie eine zweckmäßige Implementierung von LLMs aussieht und für welche Aufgaben sie im Unternehmen eher ungeeignet sind.

  • Automatisierte Verarbeitung großer Datenmengen und Texte: LLMs verfügen über die Fähigkeit, große Mengen an Textdaten schnell und effizient zu verarbeiten. Damit punkten sie als wertvolles Werkzeug für Aufgaben wie das Textmining und die Datenanalyse. Zu den typischen Einsatzfeldern gehören neben der Durchführung von Datenanalysen, die Erstellung von Berichten und die Beantwortung von Kundenanfragen. Diese Art der Automatisierung vermeidet menschliche Fehler und führt potenziell zu erheblichen Kosteneinsparungen. Wenn Unternehmen ein LLM zur Automatisierung dieser Aufgaben nutzen, lassen sich aufwendige manuelle Arbeitsschritte einsparen.
  • Maßgeschneidert für konkrete Einsatzszenarien: LLMs überzeugen durch die Möglichkeit, sie breit in den unterschiedlichsten Geschäftsbereichen mit spezifischen Geschäftsanforderungen einzusetzen. Eine zusätzliche Antwortschärfung kann beispielsweise mit RAG (Retrieval-Augmented-Generation) erreicht werden. RAG bietet eine Möglichkeit, die Leistung eines LLMs durch gezielte Informationen zu verbessern, ohne dabei das zugrunde liegende Modell selbst zu verändern. Je detaillierter und geschärfter das LLM, desto besser die generierte Antwort und damit auch die Relevanz für Anwender. Öffentliche Modelle wie ChatGPT, Microsoft Copilot oder Google Bard, haben meist keinen Zugang zu internen Unternehmensdaten, die Anwender beispielsweise zum Erstellen eines Angebots brauchen.
  • Wahrscheinlichkeiten sind keine Wahrheiten: Der Output eines LLMs erfolgt auf Basis von Wahrscheinlichkeiten, nicht unter Berücksichtigung des Wahrheitsgehalts. Wenn es nämlich lediglich berechnet, welches Wort wahrscheinlich als Nächstes folgt, kann es zu unwahren Aussagen kommen, die man auch als „Halluzination“ bezeichnet. Diese können teilweise verblüffend wahr in ihrer Formulierung klingen, sodass ein Fehler nicht beim ersten Hinsehen entdeckt werden kann. Unternehmen können das einschränken, indem sie dem Sprachmodell einen Kontext für die Antwortfindung bieten, wie beispielsweise eine Auswahl an Textdokumenten. Generieren LLMs nur Antworten aus ausgewählten Daten, ist das Risiko für Halluzinationen bereits reduziert.
  • Kein Mehrwert ohne geeignete Datenbasis: Die Versuchung ist groß, LLMs sofort einzusetzen, blickt man auf die Vorteile, die LLMs mit sich bringen. Allerdings verfehlen selbst die besten KI-gesteuerten Tools ohne geeignete Datenbasis ihren Zweck. Hintergrund: Die Fähigkeit einer KI richtige Antworten zu geben, hängt von der Qualität der Daten ab, aus denen sie Informationen bezieht. Hinzu kommt die Frage nach der erforderlichen IT-Infrastruktur, um ein LLM effektiv zu nutzen. Um also nachhaltig die Weichen für eine effiziente Nutzung zu stellen, ist es wichtig Innovationen im Blick zu behalten und die Digitalisierung grundsätzlich im Unternehmen voranzutreiben.

Dass LLMs ihren Anwendern in vielen Einsatzszenarien schon heute großen Mehrwert bieten, zeigt die Praxis. Dennoch belegen die geschilderten Punkte, warum es darauf ankommt, die Grenzen der Technologie vor der Nutzung im Arbeitsalltag genau zu kennen. Daher ist es für Unternehmen von Vorteil, vor dem Einsatz generativer Sprachmodelle erfahrene Partner an Bord zu holen, die sie bei der Implementierung beraten und unterstützen. (rhh)

Mindbreeze

Lesen Sie auch