Schnellere Verbreitung generativer KI in UnternehmenDie Infrastruktur muss passen

10. Juni 2024

Zusammen mit NVIDIA, Hugging Face und seinem Partner-Ökosystem liefert Nutanix die Basis für KI im Unternehmenseinsatz für die schnellere gewinnbringende Nutzung von On-premises-Anwendungsszenarien.

Zu den Funktionalitäten von Nutanix‘ GPT-in-a-Box gehören unter anderem Integrationen mit den Inference-Microservices NVIDIA NIM und der Bibliothek für Large Language Models (LLMs) von Hugging Face. Darüber hinaus wurde das „Nutanix AI Partner Program“ vorgestellt.

Es zielt darauf ab, durch die Kombination von führenden KI-Lösungen und Servicepartnern Kunden zu unterstützen, die generative KI-Applikationen (GenAI) auf der „Nutanix Cloud Platform“ (NCP) und GPT-in-a-Box betreiben, managen und absichern wollen. Bei „Nutanix GPT-in-a-Box“ handelt es sich um eine Full-Stack-Lösung, die mit „Nutanix Objects“ und „Nutanix Files“ für die Speicherung von Modellen und Daten integriert und für die einfache KI-Implementierung in Unternehmen, auch und gerade aus dem Enterprise-Segment, vorkonfiguriert ist.

Nutanix GPT-in-a-Box 2.0

Die Version 2.0 von GPT-in-a-Box wird die Verarbeitungsgeschwindigkeit mithilfe von NVIDIA weiter beschleunigen und soll zusätzliche LLMs unterstützen. Ferner wird sie das Management der Basismodelle weiter vereinfachen und Integrationen zu den Microservices von NVIDIA NIM und der LLM-Bibliothek von Hugging Face liefern.

Des Weiteren hält GPT-in-a-Box 2.0 eine zentrale Benutzeroberfläche für das Management der Basismodelle, das Erstellen von API-Endpunkten und die Verwaltung der Zugangsschlüssel von Endanwendern bereit. In der Version 2.0 sind Integrationen zu Nutanix Files und Nutanix Objects sowie NVIDIA Tensor Core GPUs enthalten.

Mit ihrer integrierten grafischen Benutzeroberfläche, der Rollen-basierten Zugriffskontrolle, Auditierbarkeit und Dark-Site-Unterstützung wird sich Version 2.0 von GPT-in-a-Box, neben vielen anderen Vorteilen, durch eine komfortable und einfache Benutzerführung auszeichnen, für die Nutanix bekannt ist. Sie enthält ferner eine Point-and-Click-Benutzeroberfläche, um NVIDIA NIM bereitzustellen und zu konfigurieren. Die „NIVDIA Inference Microservices“ (NIM) sind Teil der Softwareplattform „NVIDIA AI Enterprise“, um KI für den Echtbetrieb zu entwickeln und bereitzustellen. Dadurch lassen sich generative KI-Workloads im gesamten Unternehmen und am Edge bereitstellen und betreiben. (rhh)

Nutanix

Lesen Sie auch