KI-GPU Cloud-Infrastruktur

Gcore Bare-Metal-Server und virtuelle Maschinen mit NVIDIA A100 und H100 Grafikprozessoren. Steigern Sie die Produktivität Ihrer KI-Aufgaben mit herausragender Leistung!

Preisübersicht
top image

Konfigurationen und Preise

H100 Konfiguration mit Infiniband (3.2Tbit/s): 2 Intel Xeon 8480+ / 2TB RAM / 8x3.84TB NVMe / 8x Nvidia H100, IB 3.2Tbit/s, 2x100Gbit/s Ethernet

H100 Preis pro GPU 1 Monat (rollierend) 6 Monate (fest reserviert) 12 Monate (fest reserviert) 36 Monate (fest reserviert)
Mehr als 512 GPUs €3.30/Stunde €3.15/Stunde €3.05/Stunde €2.90/Stunde
128 bis 512 GPUs €3.60/Stunde €3.30/Stunde €3.25/Stunde €3.10/Stunde
32 bis 128 GPUs €3.70/Stunde €3.50/Stunde €3.40/Stunde €3.25/Stunde
Weniger als 32 GPUs €3.75/Stunde €3.60/Stunde €3.50/Stunde €3.35/Stunde

H100 Konfiguration ohne Infiniband: 2x Intel Xeon 8480+ / 2TB RAM / 8x3,84 TB NVMe / 8x Nvidia H100, 2x100Gbit/s Ethernet

H100 Preis pro GPU 1 Monat (rollierend) 6 Monate (fest reserviert) 12 Monate (fest reserviert) 36 Monate (fest reserviert)
Mehr als 512 GPUs €2.71/Stunde €2.56/Stunde €2.46/Stunde €2.31/Stunde
128 bis 512 GPUs €3.01/Stunde €2.71/Stunde €2.66/Stunde €2.51/Stunde
32 bis 128 GPUs €3.11/Stunde €2.91/Stunde €2.81/Stunde €2.66/Stunde
Weniger als 32 GPUs €3.16/Stunde €3.01/Stunde €2.91/Stunde €2.76/Stunde

Die speziell für KI- und HPC-Aufgaben konzipierte Lösung verfügt über Tensor-Cores der vierten Generation sowie über die Transformer Engine

Bare Metal

Flavor ID Serverkonfiguration GPUs GPU-Speicher Infiniband Interconnect (Gbit/s) Menge Preis
bm3-ai-large-h100-80-82 Intel Xeon 8480+ / 2TB RAM / 8x3.84 TB NVMe / 8x Nvidia H100 (No IB) 8xH100 80 GB ohne IB
€ 18.4 / 1 hour
bm3-ai-large-a100-40-42 Intel Xeon 8468 / 2 TB RAM / 4x3.84 TB NVMe / 4x Nvidia A100 / 8x200G Infiniband 4xA100 40 GB 200
€ 15.52 / 1 hour
€ 11,174.4 / 1 month
€ 127,388.16 / 1 year
bm3-ai-large-a100-80-82 Intel Xeon 8468 / 2 TB RAM / 8x3.84 TB NVMe / 8x Nvidia A100 / 8x200G Infiniband 8xA100 80 GB 800
€ 16.48 / 1 hour
€ 11,865.6 / 1 month
€ 135,267.84 / 1 year
(€1.52 per A100)
bm3-ai-large-h100-80-82 Intel Xeon 8468 / 2TB RAM / 8x3.84 TB NVMe / 8x Nvidia H100 / 8x400G Infiniband 8xH100 80 GB 3200
€ 30.01 / 1 hour
€ 21,608.00 / 1 month
€ 246,331.2 / 1 year
(€3.91 per H100)

Virtual Instance

Flavor ID Serverkonfiguration GPUs GPU-Speicher Infiniband Interconnect (Gbit/s) Menge Preis
g3-ai-24-232-1100-a100-80-124 vCPU / 232 GB RAM / 1100 GB NVMe / A100-1GPU 1xA100 80 GB 800
€ 2.06 / 1 hour
€ 1,483.2 / 1 month
€ 16,908.48 / 1 year
g3-ai-48-464-2200-a100-80-248 vCPU / 464 GB RAM / 2200 GB NVMe / A100-2GPU 2xA100 80 GB 800
€ 4.12 / 1 hour
€ 2,966.4 / 1 month
€ 33,816.96 / 1 year
g3-ai-96-1856-8800-a100-80-896 vCPU / 1856 GB RAM / 8800 GB NVMe / A100-8GPU 8xA100 80 GB 800
€ 16.48 / 1 hour
€ 11,865.6 / 1 month
€ 135,267.84 / 1 year
g3-ai-24-232-1100-h100-80-124 vCPU / 232 GB RAM / 1100 GB NVMe / H100-1GPU 1xH100 80 GB 1600
€ 3.75 / 1 hour
€ 2,701.0 / 1 month
€ 30,791.4 / 1 year
g3-ai-48-464-2200-h100-80-248 vCPU / 464 GB RAM / 2200 GB NVMe / H100-2GPU 2xH100 80 GB 1600
€ 7.5 / 1 hour
€ 5,402.0 / 1 month
€ 61,582.8 / 1 year
g3-ai-96-1856-8800-h100-80-896 vCPU / 1856 GB RAM / 8800 GB NVMe / H100-8GPU 8xH100 80 GB 1600
€ 30.01 / 1 hour
€ 21,608.0 / 1 month
€ 246,331.2 / 1 year
(€2,31 per H100)

L40s Konfiguration: 2x Intel Xeon 8468 / 2TB RAM / 4x7,68TB NVMe RI SSD + 2x960SSD OS / 8x Nvidia L40S / 2x25Gbit/s Ethernet

L40s 1 Monat (rollierend) 6 Monate (fest reserviert) 12 Monate (fest reserviert) 36 Monate (fest reserviert)
Mehr als 512 GPUs €1.64/Stunde €1.50/Stunde €1.41/Stunde €1.28/Stunde
128 bis 512 GPUs €1.91/Stunde €1.64/Stunde €1.59/Stunde €1.46/Stunde
32 bis 128 GPUs €2.00/Stunde €1.82/Stunde €1.73/Stunde €1.59/Stunde
Weniger als 32 GPUs €2.05/Stunde €1.91/Stunde €1.82/Stunde €1.69/Stunde

Scrollen Sie horizontal, um die Tabelle anzuzeigen

Preise zzgl. MwSt.

Entwickelt für KI und rechenintensive Workloads

KI-Training

Mit Tausenden von Rechenkernen kann ein Grafikprozessor (GPU) mehrere Matrixoperationen und Berechnungen parallel verarbeiten. Daher können GPUs KI-Trainingsaufgaben deutlich schneller ausführen als herkömmliche CPUs.

Deep learning

GPUs bewältigen mühelos die hohen Rechenanforderungen von tiefen neuronalen Netzen und rekurrenten neuronalen Netzen, die für die Entwicklung komplexer Deep-Learning-Modelle, einschließlich der generativen KI, von grundlegender Bedeutung sind.

High-performance Computing

Die GPU Leistung eignet sich hervorragend für rechenintensive Aufgaben wie dynamische Programmieralgorithmen, Videorenderung und wissenschaftliche Simulationen.

Data Analytics

GPUs bieten eine hohe Speicherleistung sowie eine effiziente Datenkommunikation. Dies verbessert die Verarbeitung und das Handling großer Datensätze und ermöglicht eine schnellere Analysemöglichkeiten.

GPU-Champions

Der NVIDIA A100 und der neueste H100 Grafikprozessor sind führend auf dem Markt für professionelle Grafikprozessoren. Sie sind leistungsstarke und vielseitige Leistungsbeschleuniger für eine Vielzahl von KI- und High-Performance-Computing Workloads

gpu

Spezifikationen A100

  • Bis zu 249x höhere KI-Inferenzleistung im Vergleich zu CPUs
  • Bis zu 20x mehr Leistung als die Vorgänger-Generation NVIDIA GPU V100
  • Tensor Core der 3. Generation
  • Bis zu 80 GB HBM2e Speicher

H100-Spezifikationen

  • Bis zu 4x höhere Leistung als die A100 GPU für KI-Training auf GPT-3
  • Bis zu 7x höhere Leistung als die A100-GPU für HPC-Anwendungen
  • Tensor Core der 4. Generation
  • Bis zu 100 GB HBM3-Speicher
A100
H100

Ideal für KI-Frameworks

NVIDIA Grafikprozessoren eignen sich hervorragend für die Ausführung von KI-Frameworks und Tools, die bei der Erstellung, dem Training und der Deployment von KI-Modellen helfen.

tensor-flow
pytorch
keras
paddle
onnx
hf
chainer
tensor-rt
rapids
apache
jupyter
sci

Dedizierte Bare-Metal-GPU-Server oder virtuelle GPU-Instanzen?

Entscheiden Sie, was für Sie funktioniert!

Bare-Metal-GPU-Server

Bare-Metal-Server bieten direkten Zugriff auf die physische Hardware, einschließlich der GPU. Das heißt, dass sämtliche GPU-Ressourcen für Sie bereitgestellt werden. Die Bare-Metal-GPU bietet Ihnen optimale Leistung für KI und rechenintensive Workloads.

Virtuelle GPU-Instanzen

Bei gleicher Konfiguration können GPUs auf VMs etwas langsamer arbeiten als auf Bare-Metal-Servern. VMs bieten allerdings eine einfachere Verwaltung, Skalierbarkeit und niedrigere Preise als Bare-Metal-GPU-Server.

Managed Kubernetes mit GPU-Worker-Knoten

Funktionen wie Autoscaling und Autohealing machen Kubernetes ideal für dynamische Workloads wie maschinelles Lernen, Videoverarbeitung und andere rechenintensive Aufgaben. Mit Managed Kubernetes von Gcore können Sie Bare Metal und VMs mit GPU als Worker-Nodes (A100 und H100) verwenden. Die Verwendung von GPUs in Ihren Containern erfolgt durch Anfragen nach Custom-GPU-Ressourcen (ähnlich wie bei CPU oder Speicher).

kubernetes
kuberneteskubernetes
Mehr über Managed Kubernetes erfahren

Nutzen Sie die Vorteile der Gcore Cloud-Lösungen

KI-IPU

Nutzen Sie die KI-Cloud-Infrastruktur von Gcore, die von Graphcore-IPUs angetrieben wird, um maschinelles Lernen zu beschleunigen.

Bare-Metal-Server

Ressourcenintensive Anwendungen und Dienste werden auf leistungsstarken physischen Servern bereitgestellt.

Virtuelle Maschinen

Nutzen Sie VMs, die für eine Vielzahl von Workloads und eine skalierbare Performance ausgelegt sind.

Managed Kubernetes

Bereitstellung, Verwaltung und Skalierung von Kubernetes-Clustern mit einem SLA von 99,9 % und Unterstützung von Bare-Metal-Nodes.

GCORE PARTNERS

  • nvidia-partner
  • dell-partner
  • intel-partner

FAQ

Eine Graphics Processing Unit (GPU) ist ein spezieller elektronischer Schaltkreis, der die Darstellung von Computergrafiken verbessert. GPUs werden in einer Vielzahl von Anwendungen eingesetzt, darunter Videospiele, 3D-Modellierung und KI-Training.

GPUs sind für parallele Verarbeitung ausgelegt, d.h. sie können mehrere Rechenoperationen gleichzeitig ausführen. Dies ist der Hauptunterschied zwischen GPUs und CPUs, bei denen die Operationen einzeln ausgeführt werden.

Sie bezahlen für die von Ihnen gewählte Konfiguration. Wenn Sie eine separate GPU-Instanz erwerben, die nicht Teil eines Kubernetes-Clusters ist, wird die entsprechende VM- oder Bare-Metal-Konfiguration berechnet. Weitere Informationen zu unseren Preisen finden Sie oben im Abschnitt Konfigurationen und Preise.

Kontaktieren Sie unser Vertriebsteam unter sales@gcore.com mit Ihrer gewünschten neuen Instanzkonfiguration. Wenn Sie Hilfe bei der Wahl einer Konfiguration benötigen, melden wir uns bei Ihnen mit der bestmöglichen Lösung für Ihre Anfrage.

Das hängt von der Art der Instanzen ab, die Sie wählen: Bare Metal oder VMs. Wenn Sie sich für einen Bare-Metal-Server entscheiden, sind alle seine Ressourcen für Sie allein verfügbar.

Wenn Sie sich für eine VM entscheiden, erhalten Sie virtuelle Computing-Ressourcen, einschließlich der Ressourcen eines Grafikprozessors. Die physischen Ressourcen der Instanz (Server) werden gemeinsam genutzt, die virtuellen Ressourcen hingegen nicht. Sie erhalten Zugriff auf den vollen Umfang der Ressourcen, die Sie erworben haben.

Nachdem Sie die GPU-Instanz erworben haben, ist sie einsatzbereit in:

  • 3 – 5 Minuten, wenn es sich um eine virtuelle Maschine handelt
  • 15 – 20 Minuten, wenn es sich um einen Bare-Metal-Server hand

Ja, füllen Sie dieses Formular aus und unser Vertriebsteam wird sich mit Ihnen in Verbindung setzen, um diese Option mit Ihnen zu besprechen. Bitte beachten Sie, dass Sie nach Ablauf des Testzeitraums auf den regulären Pay-as-you-go-Tarif umgestellt werden.

Ja. Füllen Sie dieses Formular aus, und unser Vertriebsteam wird sich diesbezüglich mit Ihnen in Verbindung setzen.

Ja, Füllen Sie dieses Formular aus. Unser Vertriebsteam wird sich mit Ihnen in Verbindung setzen und die Details besprechen.

Setzen Sie sich mit uns in Verbindung, um ein individuelles Angebot zu erhalten.

Für weitere Informationen zur KI-GPU-Cloud-Infrastruktur füllen Sie bitte das Formular aus