Wir freuen uns, unser ehrgeiziges neues Projekt vorstellen zu können: den generativen KI-Cluster von Gcore, der auf zwanzig Servern mit NVIDIA GPUs basiert. Der Cluster bietet den erheblichen Leistungsschub, der für das Training und die Inferenz großer KI/ML-Modelle erforderlich ist, einschließlich solcher für generative KI. Als blühendes Zentrum der technologischen Innovation bietet Luxemburg den perfekten Rahmen für dieses monumentale Unterfangen.
Unterstützt durch führende GPU-Beschleuniger
Der generative KI-Cluster von Gcore besteht derzeit aus zwanzig Servern, die mit NVIDIA A100 Tensor Core GPUs ausgestattet sind. Der A100 ist ein leistungsstarker Beschleuniger, der bei den meisten KI-Trainingsaufgaben die Leistung der GPU-Konkurrenz übertrifft. Außerdem liefert er eine bis zu 100x schnellere KI-Trainingsleistung als moderne CPUs.
Hier sehen Sie eine A100-basierte Serverkonfiguration:
- 8x NVIDIA A100 SXM 80 GB
- 2x Intel Xeon 8468
- 2 TB RAM
- 8×3,84 TB NVMe
- InfiniBand 800 Gbps
InfiniBand-Schnittstellen bieten direkte Hochgeschwindigkeits-GPU-Verbindungen, ideal für die Skalierung generativer KI-Workloads.
Gcore GPU-Infrastruktur-Typen
Sie können wählen, wie Sie die Clusterkapazität als Teil Ihres bevorzugten Gcore-Dienstes nutzen möchten. Die NVIDIA A100 Grafikprozessoren treiben Folgendes an:
- Virtuelle Instanzen
- Bare-Metal-Server
- Managed Kubernetes basierend auf virtuellen Instanzen
- Managed Kubernetes auf Bare Metal
Die Systeme von Gcore sind für die NVIDIA-Hardware optimiert, um Spitzenleistung zu gewährleisten.
MLOps-Ready
Unser Setup lässt sich nahtlos in MLOps-Plattformen wie UbiOps integrieren und rationalisiert Ihre maschinellen Lernprozesse vom Experimentieren bis zur Bereitstellung. So können Sie alle Ihre Modelle an einem Ort verwalten, mit Versionskontrolle, Protokollierung, Auditing und Überwachung. Sie können die Nutzung und die Leistungskennzahlen Ihrer Modelle verfolgen und die erforderlichen Warnungen und Benachrichtigungen einstellen. Lassen Sie Ihre Daten für Sie arbeiten, nicht umgekehrt. Weitere Einzelheiten finden Sie unter unserer Ankündigung der Partnerschaft von Gcore, Graphcore und UbiOps.
Gcores KI-Pläne für die Zukunft
In den kommenden Monaten werden wir den generativen KI-Cluster von Gcore um 25 A100 und 128 H100 GPU-basierte Server erweitern. Der H100 Tensor Core Grafikprozessor ist NVIDIAs neuester KI-Beschleuniger für Rechenzentren und liefert eine bis zu 4x schnellere KI-Trainingsleistung als der A100.
Hier sehen Sie eine H100-basierte Serverkonfiguration:
- NVIDIA HGX H100 8-GPU SXM GPUs Montage
- 2x Intel Xeon Platinum 8480+
- 2 TB RAM
- 8x 3,84 TB Enterprise NVMe RI
- InfiniBand 3.6 Tbps
Bleiben Sie dran für unsere kommende Global Intelligence Pipeline, die darauf ausgelegt ist, die Inferenz am Rande zu beschleunigen. Mit diesem Projekt überwinden wir die Grenzen zwischen der Datenerfassung und der Echtzeitanalyse und ermöglichen so intelligentere und schnellere Entscheidungen.
Jetzt loslegen
Sie können unsere KI-GPU-Infrastruktur kostenlos testen. Um Ihre kostenlose Testphase zu erhalten, füllen Sie dieses Formular aus und unser Vertriebsteam wird sich mit Ihnen in Verbindung setzen, um die Einzelheiten zu besprechen.
Um mehr darüber zu erfahren, wie GPUs generative KI vorantreiben, lesen Sie unseren Blogbeitrag.