KI-GPU-Cloud-Infrastruktur

Gcore Bare-Metal-Server und virtuelle Maschinen mit NVIDIA A100 und H100 GPUs. Steigern Sie die Produktivität Ihrer KI-Aufgaben mit bahnbrechender Performance!

top image

Wir haben keine Ressourcen mehr. Wir erwarten neue Lieferungen innerhalb eines Monats.

Bitte füllen Sie dieses Formular aus, um die Ressourcen zu erhalten, sobald sie eintreffen.

Konfigurationen und Preise

Flavor ID Serverkonfiguration GPUs GPU-Speicher Infiniband Interconnect (Gbit/s) Menge Preis
bm3-ai-large-a100-40-42 Intel Xeon 8468 / 2 TB RAM / 4x3.84 TB NVMe / 4x Nvidia A100 / 8x200G Infiniband 4xA100 40 GB 200
€ 9.68 / 1 hour
€ 6,969.6 / 1 month
€ 83,635.2 / 1 year
bm3-ai-large-a100-80-82 Intel Xeon 8468 / 2 TB RAM / 8x3.84 TB NVMe / 8x Nvidia A100 / 8x200G Infiniband 8xA100 80 GB 800
€ 11.44 / 1 hour
€ 8,236.8 / 1 month
€ 98,841.6 / 1 year
(€1.52 per A100)
bm3-ai-large-h100-80-82 Intel Xeon 8468 / 2TB RAM / 8x3.84 TB NVMe / 8x Nvidia H100 / 8x400G Infiniband 8xH100 80 GB 1600
€ 18.48 / 1 hour
€ 13,305.6 / 1 month
€ 159,667.2 / 1 year
(€3.91 per H100)
Flavor ID Serverkonfiguration GPUs GPU-Speicher Infiniband Interconnect (Gbit/s) Menge Preis
g3-ai-24-232-1100-a100-80-124 vCPU / 232 GB RAM / 1100 GB NVMe / A100-1GPU 1xA100 80 GB 800
€ 1.43 / 1 hour
€ 1,029.6 / 1 month
€ 12,355.2 / 1 year
g3-ai-48-464-2200-a100-80-248 vCPU / 464 GB RAM / 2200 GB NVMe / A100-2GPU 2xA100 80 GB 800
€ 2.86 / 1 hour
€ 2,059.2 / 1 month
€ 24,710.4 / 1 year
g3-ai-96-1856-8800-a100-80-896 vCPU / 1856 GB RAM / 8800 GB NVMe / A100-8GPU 8xA100 80 GB 800
€ 11.44 / 1 hour
€ 8,236.8 / 1 month
€ 98,841.6 / 1 year
g3-ai-24-232-1100-h100-80-124 vCPU / 232 GB RAM / 1100 GB NVMe / H100-1GPU 1xH100 80 GB 1600
€ 2.31 / 1 hour
€ 1,663.2 / 1 month
€ 19,958.4 / 1 year
g3-ai-48-464-2200-h100-80-248 vCPU / 464 GB RAM / 2200 GB NVMe / H100-2GPU 2xH100 80 GB 1600
€ 4.62 / 1 hour
€ 3,326.4 / 1 month
€ 39,916.8 / 1 year
g3-ai-96-1856-8800-h100-80-896 vCPU / 1856 GB RAM / 8800 GB NVMe / H100-8GPU 8xH100 80 GB 1600
€ 18.48 / 1 hour
€ 13,305.6 / 1 month
€ 159,667.2 / 1 year
(€2,31 per H100)
Flavor ID Serverkonfiguration GPUs GPU-Speicher Infiniband Interconnect (Gbit/s) Menge Preis
bm3-ai-large-a100-40-42 Intel Xeon 8468 / 2 TB RAM / 4x3.84 TB NVMe / 4x Nvidia A100 / 8x200G Infiniband 4xA100 40 GB 200
€ 9.68 / 1 hour
€ 6,969.6 / 1 month
€ 83,635.2 / 1 year
bm3-ai-large-a100-80-82 Intel Xeon 8468 / 2 TB RAM / 8x3.84 TB NVMe / 8x Nvidia A100 / 8x200G Infiniband 8xA100 80 GB 800
€ 11.44 / 1 hour
€ 8,236.8 / 1 month
€ 98,841.6 / 1 year
(€1.52 per A100)
bm3-ai-large-h100-80-82 Intel Xeon 8468 / 2TB RAM / 8x3.84 TB NVMe / 8x Nvidia H100 / 8x400G Infiniband 8xH100 80 GB 1600
€ 18.48 / 1 hour
€ 13,305.6 / 1 month
€ 159,667.2 / 1 year
(€3.91 per H100)

Scrollen Sie horizontal, um die Tabelle anzuzeigen

Preise verstehen sich exklusive Mehrwertsteuer.

Für KI und rechenintensive Workloads entwickelt

KI-Training

Mit Tausenden von Rechenkernen kann ein Grafikprozessor (GPU) mehrere Matrixoperationen und Berechnungen parallel durchführen. Infolgedessen erledigen GPUs KI-Trainingsaufgaben viel schneller als herkömmliche CPUs.

Deep learning

GPUs bewältigen mühelos die hohen Rechenanforderungen von tiefen neuronalen Netzen und rekurrenten neuronalen Netzen, die für die Entwicklung komplexer Deep-Learning-Modelle, einschließlich generativer KI, von grundlegender Bedeutung sind.

Leistungsstarkes Computing

Die überragende GPU-Leistung eignet sich hervorragend für rechenintensive Workloads, einschließlich dynamischer Programmieralgorithmen, Videorendering und wissenschaftlicher Simulationen.

Datenanalyse

GPUs bieten eine hohe Speicherbandbreite und effiziente Datenübertragungsmöglichkeiten. Dies verbessert die Verarbeitung und Manipulation großer Datensätze und ermöglicht eine schnellere Analyse.

GPU-Champions

Die NVIDIA A100 und die neuesten H100-GPUs stehen an der Spitze des GPU-Marktes für Unternehmen. Beide sind leistungsstarke und vielseitige Beschleuniger für eine breite Palette von KI- und High-Performance-Computing.

gpu

A100-Spezifikationen

  • Bis zu 249x höhere KI-Inferenzleistung gegenüber CPUs
  • Bis zu 20 Mal höhere Leistung als die vorherige Generation der NVIDIA GPU, V100
  • Tensor Core der 3. Generation
  • Bis zu 80 GB HBM2e-Speicher

H100-Spezifikationen

  • Bis zu 4x höhere Leistung als die A100 GPU für KI-Training auf GPT-3
  • Bis zu 7x höhere Leistung als die A100-GPU für HPC-Anwendungen
  • Tensor Core der 4. Generation
  • Bis zu 100 GB HBM3-Speicher
A100
H100

Ideal für KI-Frameworks

NVIDIA GPUs eignen sich hervorragend für die Ausführung von KI-Frameworks und Tools, die bei der Erstellung, dem Training und der Bereitstellung von KI-Modellen helfen.

tensor-flow
pytorch
keras
paddle
onnx
hf
chainer
tensor-rt
rapids
apache
jupyter
sci

Dedizierte Bare-Metal-GPU-Server oder virtuelle GPU-Instanzen?

Wählen Sie, was für Sie am besten passt!

Bare-Metal-GPU-Server

Bare-Metal-Server bieten direkten Zugriff auf die physische Hardware, einschließlich der GPU. Das heißt, dass sämtliche GPU-Ressourcen für Sie bereitgestellt werden. Die Bare-Metal-GPU bietet Ihnen optimale Leistung für KI und rechenintensive Workloads.

Virtuelle GPU-Instanzen

Bei gleicher Konfiguration können GPUs auf VMs etwas langsamer arbeiten als auf Bare-Metal-Servern. VMs bieten allerdings eine einfachere Verwaltung, Skalierbarkeit und niedrigere Preise als Bare-Metal-GPU-Server.

Managed Kubernetes mit GPU-Worker-Knoten

Funktionen wie Autoskalierung und Autohealing machen Kubernetes ideal für dynamische Arbeitslasten, einschließlich maschinelles Lernen, Videoverarbeitung und andere rechenintensive Aufgaben. Mit dem Managed Kubernetes von Gcore können Sie Bare Metal und VMs mit GPU als Worker-Knoten (A100 und H100) verwenden. Nutzen Sie einfach GPUs in Ihren Containern, indem Sie (ähnlich wie bei CPU oder Speicher) die benutzerdefinierte GPU-Ressource anfordern.

kubernetes
kuberneteskubernetes
Mehr über Managed Kubernetes

Profitieren Sie von den Cloud-Lösungen von Gcore

KI-IPU

Nutzen Sie die KI-Cloud-Infrastruktur von Gcore, angetrieben von Graphcore IPUs, um maschinelles Lernen zu beschleunigen.

Bare-Metal-Server

Stellen Sie ressourcenintensive Anwendungen und Dienste auf leistungsstarken physischen Servern bereit.

Virtuelle Maschinen

Nutzen Sie produktionsreife VMs, die für eine breite Palette von Workloads und eine vorhersehbare Performance entwickelt wurden.

Managed Kubernetes

Bereitstellung, Verwaltung und Skalierung von Kubernetes-Clustern mit 99,9 % SLA und Unterstützung für Bare-Metal-Knoten.

Häufig gestellte Fragen

Eine Graphics Processing Unit (GPU) ist ein spezieller elektronischer Schaltkreis, der die Darstellung von Computergrafiken verbessert. GPUs werden in verschiedenen Anwendungen eingesetzt, darunter Videospiele, 3D-Modellierung und KI-Training.

GPUs sind für die parallele Verarbeitung konzipiert, was bedeutet, dass sie mehrere Anweisungen gleichzeitig ausführen können. Dies ist der Hauptunterschied zwischen GPUs und CPUs; letztere führen Anweisungen einzeln aus.

Sie müssen für die von Ihnen gewählte Konfiguration bezahlen. Wenn Sie eine separate GPU-Instanz erwerben, die nicht Teil eines Kubernetes-Clusters ist, wird Ihnen die entsprechende VM- oder Bare-Metal-Konfiguration berechnet. Im obigen Abschnitt Konfigurationen und Preise erfahren Sie mehr über unsere Preise.

Kontaktieren Sie unser Vertriebsteam unter sales@gcore.com mit Ihrer gewünschten neuen Instanzkonfiguration. Wenn Sie Hilfe bei der Auswahl einer Konfiguration benötigen, wird man sich mit der besten Lösung für Ihre Anfrage an Sie wenden.

Das hängt von der Art der Instanzen ab, die Sie wählen: Bare Metal oder VMs. Wenn Sie sich für einen Bare-Metal-Server entscheiden, sind alle seine Ressourcen für Sie bestimmt.

Wenn Sie sich für eine VM entscheiden, erhalten Sie virtuelle Computing-Ressourcen, einschließlich der eines Grafikprozessors. Die physischen Ressourcen der Instanz (Server) werden gemeinsam genutzt, die virtuellen Ressourcen jedoch nicht. Sie erhalten Zugriff auf den vollen Umfang der Ressourcen, die Sie erworben haben.

Nachdem Sie die GPU-Instanz erworben haben, ist sie einsatzbereit in:

  • 3–5 Minuten, wenn es sich um eine virtuelle Maschine handelt
  • 15–20 Minuten, wenn es sich um einen Bare-Metal-Server handelt

Ja. Füllen Sie dieses Formular aus, und unser Vertriebsteam wird Sie kontaktieren, um diese Option zu besprechen. Bitte beachten Sie, dass Sie nach Ablauf des Testzeitraums auf den regulären Pay-as-you-go-Tarif umgestellt werden.

Ja. Füllen Sie dieses Formular aus, und unser Vertriebsteam wird Sie kontaktieren, um diese Option zu besprechen.

Ja. Füllen Sie dieses Formular aus, und unser Verkaufsteam wird sich mit Ihnen in Verbindung setzen, um die Details zu besprechen und Sie auf unsere Warteliste zu setzen.

Kontaktieren Sie uns, um ein persönliches Angebot zu erhalten