Deep-Learning-Training in der CloudModernste Grafikprozessoren für anspruchsvolle KI-Workloads

2. Oktober 2023

Durch die Integration neuer NVIDIA-GPU-Produkte baut OVHcloud sein Portfolio an KI-Lösungen weiter aus. Angesichts des enormen Einflusses, den künstliche Intelligenz in den kommenden Jahren haben wird, hat es sich OVHcloud zur Aufgabe gemacht, ein Ökosystem zusammenzubringen und seinen Kunden dabei zu helfen, ihr Geschäft auszubauen.

Mit über 20 Jahren Erfahrung im Bereich Cloud-Infrastruktur und einem einzigartigen, vertikal integrierten Industriemodell entwickelt OVHcloud KI-fähige Infrastrukturen, die die neuen NVIDIA H100 und A100 Tensor Core GPUs einsetzen. Kunden können aus vielen Optionen wählen, um ihre anspruchsvollsten Machine-Learning-Workloads, einschließlich Large Language Models (LLMs), zu betreiben.

Zusätzlich zu den Optionen, die bereits mit den NVIDIA V100 und NVIDIA V100S Grafikprozessoren der älteren Generation angeboten werden, bietet OVHcloud jetzt neue Lösungen auf Basis der folgenden Grafikprozessoren an: NVIDIA H100, NVIDIA A100, NVIDIA L40S und NVIDIA L4. Diese werden in den kommenden Wochen verfügbar werden.

GPU-Instanzen mit NVIDIA A100

Neue NVIDIA A100 GPU-Instanzen mit 80 Gigabyte Speicherkapazität ermöglichen KI-Spezialisten die Durchführung komplexer Projekte auf hochspezialisierten NVIDIA Tensor Cores. Der A100 bietet besondere Kapazitäten für Deep-Learning-Training und eignet sich dank verschiedener Optimierungen auch ideal für die Durchführung von Inferenzen, einschließlich LLM-bezogener Projekte. High-Performance-Computing ist ein weiteres Einsatzgebiet, indem die A100-GPU-Instanzen durch fortschrittliche Simulationen glänzen – mit doppelter Rechenpräzision und hoher Speicherbandbreite.

OVHcloud kündigt außerdem neue H100-basierte GPU-Instanzen an, die auf dem neuesten Beschleuniger von NVIDIA mit einer Rechenleistung ab 26 petaFLOPS (FP64) pro PCIe-GPU basieren. Der NVIDIA H100 wurde speziell für die anspruchsvollsten KI-Modelle entwickelt und ist somit die ideale Wahl für Innovationen im Bereich der KI, sei es bei der Beschleunigung von LLMs mit seiner Transformer Engine oder bei der Erstellung generativer KI-Anwendungen.

Für die anspruchsvollsten Anwendungsfälle, wie extremes Feintuning und Training, bietet OVHcloud NVIDIA H100 SXM-basierte Lösungen an. Mit einer FP64-Rechenleistung von 67 TFlops und einer höheren GPU-Bandbreite nutzt dieses Angebot die volle Leistung der NVIDIA Hopper-GPU-Architektur.

Basis für die KI-Entwicklung

Mit dem Portfolio an NVIDIA-GPU-Architekturen bietet OVHcloud eine auf KI zugeschnittene Infrastruktur für KI-Ingenieure, Forscher, Data Scientists und Datenexperten. Diese können die Elastizität der Cloud nutzen, um ihre Anforderungen vom Training bis zur Inferenz zu erfüllen.

Darüber hinaus wird OVHcloud schrittweise NVIDIA H100- und A100-Optionen zu seinen umfassenden KI-PaaS-Lösungen hinzufügen, die den Lebenszyklus von Daten begleiten: AI Notebooks, AI Training und AI Deploy. Die KI-Lösungen von OVHcloud fungieren als ein komplettes Set von Werkzeugen, die einfach zu bedienen sind und darauf ausgelegt sind, Daten zu erforschen, Modelle zu trainieren und sie in die Produktion zu bringen. (rhh)

OVHcloud

Lesen Sie auch