Red Hat Enterprise Linux AI:Für KI-Innovationen im Produktivbetrieb verfügbar
23. September 2024Die allgemeine Verfügbarkeit von Red Hat Enterprise Linux (RHEL) AI in der Hybrid Cloud hat Red Hat bekannt gegeben. Diese Version kombiniert offene, effizientere Modelle mit leicht zugänglichem Modell-Alignment und erweitert so die Möglichkeiten der KI-Innovation in einer Hybrid Cloud.
Bei RHEL AI handelt es sich um die grundlegende Modellplattform von Red Hat, mit der Anwender generative KI-Modelle zur Unterstützung von Unternehmensanwendungen entwickeln, testen und einsetzen können. Die Plattform kombiniert die Open-Source-lizenzierte Granite-Large-Language-Model (LLM)-Familie und die InstructLab-Modell-Alignment-Tools, die auf der Methode Large-scale Alignment for chatBots (LAB) basieren. Die Lösung ist als bootfähiges RHEL-Image für die Bereitstellung einzelner Server in der Hybrid Cloud paketiert.
Die generative KI verspricht viele Vorteile, aber die damit verbundenen Kosten für die Beschaffung, das Training und die Feinabstimmung von LLMs können astronomisch sein. Bei einigen führenden Modellen können bis zur Markteinführung Kosten von fast 200 Millionen Dollar für das Training anfallen. Darin nicht enthalten sind die Kosten für die Anpassung an die spezifischen Anforderungen oder Daten eines Unternehmens, wofür in der Regel Data Scientists oder hochspezialisierte Entwickler erforderlich sind. Unabhängig davon, welches Modell für eine bestimmte Anwendung ausgewählt wird, ist eine Adaption an die unternehmensspezifischen Daten und Prozesse unverzichtbar. Nur so kann KI Effizienz und Agilität in realen Produktionsumgebungen bieten.
Bei Red Hat geht man davon aus, dass in den nächsten zehn Jahren kleinere, effizientere und anforderungsspezifische KI-Modelle neben Cloud-nativen Anwendungen einen wesentlichen Teil des IT-Stacks von Unternehmen ausmachen werden. Um dies zu erreichen, muss die generative KI jedoch leichter zugänglich und verfügbar sein – von den Kosten über die Mitwirkenden bis hin zur Möglichkeit, sie in der Hybrid Cloud einzusetzen. Jahrzehntelang haben Open-Source-Communities geholfen, ähnliche Herausforderungen bei komplexen Softwareproblemen durch Beiträge verschiedener Nutzergruppen zu bewältigen; ein vergleichbarer Ansatz kann nun die Hürden für eine effektive Einführung der generativen KI überwinden.
Ein Open-Source-Ansatz für die generative KI
Mit RHEL AI wird die generative KI für CIOs und IT-Organisationen über die Hybrid Cloud hinweg zugänglicher, effizienter und flexibler. Unter anderem unterstützt RHEL AI bei:
- der Förderung von Innovationen der generativen KI mit unternehmenstauglichen Open-Source-lizenzierten Granite-Modellen, die auf eine Vielzahl von Anwendungsfällen der generativen KI abgestimmt sind,
- der Anpassung von Modellen der generativen KI an betriebliche Anforderungen mit dem InstructLab-Tooling, das es Domain-Experten und Entwicklern innerhalb einer Organisation ermöglicht, auch ohne umfassende Data-Science-Kenntnisse ihre Modelle mit individuellen Fähigkeiten und Kenntnissen anzureichern.
- dem Training und der Bereitstellung der generativen KI über die Hybrid Cloud hinweg, indem alle Tools zur Verfügung gestellt werden, die für das Tuning und das Deployment von Modellen für Produktionsserver erforderlich sind, unabhängig davon, wo die zugehörigen Daten gespeichert sind. RHEL AI bietet außerdem einen sofortigen Einstieg in Red Hat OpenShift AI, um die Modelle in großem Umfang mit denselben Tools und Konzepten zu trainieren, zu tunen und bereitzustellen.
Bei RHEL AI kommen zudem die Vorteile einer Red Hat Subscription zum Tragen, die eine vertrauenswürdige Produktdistribution für Unternehmen, einen 24×7-Support, einen erweiterten Support für den Lebenszyklus des Modells und den rechtlichen Schutz durch Open Source Assurance umfasst.
Die Bereitstellung einer konsistenten Basismodellplattform, die näher an den Daten eines Unternehmens liegt, ist für die Unterstützung von KI-Strategien im Produktivbetrieb entscheidend. Als Erweiterung des Hybrid-Cloud-Portfolios von Red Hat wird RHEL AI nahezu jede mögliche Unternehmensumgebung abdecken, von On-Premise-Rechenzentren über Edge-Umgebungen bis hin zur Public Cloud. (rhh)