Wir haben keine Ressourcen mehr. Wir erwarten neue Lieferungen innerhalb eines Monats.
Bitte füllen Sie dieses Formular aus, um die Ressourcen zu erhalten, sobald sie eintreffen.
Durch Klicken auf die Schaltfläche geben Sie uns Ihre Einwilligung zur Verarbeitung Ihrer personenbezogenen Daten gemäß unserer Datenschutzrichtlinie
Konfigurationen und Preise
Scrollen Sie horizontal, um die Tabelle anzuzeigen
Preise verstehen sich exklusive Mehrwertsteuer.
Für KI und rechenintensive Workloads entwickelt
KI-Training
Mit Tausenden von Rechenkernen kann ein Grafikprozessor (GPU) mehrere Matrixoperationen und Berechnungen parallel durchführen. Infolgedessen erledigen GPUs KI-Trainingsaufgaben viel schneller als herkömmliche CPUs.
Deep learning
GPUs bewältigen mühelos die hohen Rechenanforderungen von tiefen neuronalen Netzen und rekurrenten neuronalen Netzen, die für die Entwicklung komplexer Deep-Learning-Modelle, einschließlich generativer KI, von grundlegender Bedeutung sind.
Leistungsstarkes Computing
Die überragende GPU-Leistung eignet sich hervorragend für rechenintensive Workloads, einschließlich dynamischer Programmieralgorithmen, Videorendering und wissenschaftlicher Simulationen.
Datenanalyse
GPUs bieten eine hohe Speicherbandbreite und effiziente Datenübertragungsmöglichkeiten. Dies verbessert die Verarbeitung und Manipulation großer Datensätze und ermöglicht eine schnellere Analyse.
GPU-Champions
Die NVIDIA A100 und die neuesten H100-GPUs stehen an der Spitze des GPU-Marktes für Unternehmen. Beide sind leistungsstarke und vielseitige Beschleuniger für eine breite Palette von KI- und High-Performance-Computing.

A100-Spezifikationen
- Bis zu 249x höhere KI-Inferenzleistung gegenüber CPUs
- Bis zu 20 Mal höhere Leistung als die vorherige Generation der NVIDIA GPU, V100
- Tensor Core der 3. Generation
- Bis zu 80 GB HBM2e-Speicher
H100-Spezifikationen
- Bis zu 4x höhere Leistung als die A100 GPU für KI-Training auf GPT-3
- Bis zu 7x höhere Leistung als die A100-GPU für HPC-Anwendungen
- Tensor Core der 4. Generation
- Bis zu 100 GB HBM3-Speicher
Vor der Veröffentlichung der H100 im Jahr 2022 war die A100 in den MLPerf-Benchmarks die führende GPU-Plattform.
Im jüngsten MLPerf-Benchmark zeigte die H100 eine bessere Leistung als die Konkurrenz.
Ideal für KI-Frameworks
NVIDIA GPUs eignen sich hervorragend für die Ausführung von KI-Frameworks und Tools, die bei der Erstellung, dem Training und der Bereitstellung von KI-Modellen helfen.












Dedizierte Bare-Metal-GPU-Server oder virtuelle GPU-Instanzen?
Wählen Sie, was für Sie am besten passt!
Bare-Metal-GPU-Server
Bare-Metal-Server bieten direkten Zugriff auf die physische Hardware, einschließlich der GPU. Das heißt, dass sämtliche GPU-Ressourcen für Sie bereitgestellt werden. Die Bare-Metal-GPU bietet Ihnen optimale Leistung für KI und rechenintensive Workloads.
Virtuelle GPU-Instanzen
Bei gleicher Konfiguration können GPUs auf VMs etwas langsamer arbeiten als auf Bare-Metal-Servern. VMs bieten allerdings eine einfachere Verwaltung, Skalierbarkeit und niedrigere Preise als Bare-Metal-GPU-Server.
Managed Kubernetes mit GPU-Worker-Knoten
Funktionen wie Autoskalierung und Autohealing machen Kubernetes ideal für dynamische Arbeitslasten, einschließlich maschinelles Lernen, Videoverarbeitung und andere rechenintensive Aufgaben. Mit dem Managed Kubernetes von Gcore können Sie Bare Metal und VMs mit GPU als Worker-Knoten (A100 und H100) verwenden. Nutzen Sie einfach GPUs in Ihren Containern, indem Sie (ähnlich wie bei CPU oder Speicher) die benutzerdefinierte GPU-Ressource anfordern.
Profitieren Sie von den Cloud-Lösungen von Gcore
KI-IPU
Nutzen Sie die KI-Cloud-Infrastruktur von Gcore, angetrieben von Graphcore IPUs, um maschinelles Lernen zu beschleunigen.
Bare-Metal-Server
Stellen Sie ressourcenintensive Anwendungen und Dienste auf leistungsstarken physischen Servern bereit.
Virtuelle Maschinen
Nutzen Sie produktionsreife VMs, die für eine breite Palette von Workloads und eine vorhersehbare Performance entwickelt wurden.
Managed Kubernetes
Bereitstellung, Verwaltung und Skalierung von Kubernetes-Clustern mit 99,9 % SLA und Unterstützung für Bare-Metal-Knoten.
Häufig gestellte Fragen
Eine Graphics Processing Unit (GPU) ist ein spezieller elektronischer Schaltkreis, der die Darstellung von Computergrafiken verbessert. GPUs werden in verschiedenen Anwendungen eingesetzt, darunter Videospiele, 3D-Modellierung und KI-Training.
GPUs sind für die parallele Verarbeitung konzipiert, was bedeutet, dass sie mehrere Anweisungen gleichzeitig ausführen können. Dies ist der Hauptunterschied zwischen GPUs und CPUs; letztere führen Anweisungen einzeln aus.
Sie müssen für die von Ihnen gewählte Konfiguration bezahlen. Wenn Sie eine separate GPU-Instanz erwerben, die nicht Teil eines Kubernetes-Clusters ist, wird Ihnen die entsprechende VM- oder Bare-Metal-Konfiguration berechnet. Im obigen Abschnitt Konfigurationen und Preise erfahren Sie mehr über unsere Preise.
Kontaktieren Sie unser Vertriebsteam unter sales@gcore.com mit Ihrer gewünschten neuen Instanzkonfiguration. Wenn Sie Hilfe bei der Auswahl einer Konfiguration benötigen, wird man sich mit der besten Lösung für Ihre Anfrage an Sie wenden.
Das hängt von der Art der Instanzen ab, die Sie wählen: Bare Metal oder VMs. Wenn Sie sich für einen Bare-Metal-Server entscheiden, sind alle seine Ressourcen für Sie bestimmt.
Wenn Sie sich für eine VM entscheiden, erhalten Sie virtuelle Computing-Ressourcen, einschließlich der eines Grafikprozessors. Die physischen Ressourcen der Instanz (Server) werden gemeinsam genutzt, die virtuellen Ressourcen jedoch nicht. Sie erhalten Zugriff auf den vollen Umfang der Ressourcen, die Sie erworben haben.
Nachdem Sie die GPU-Instanz erworben haben, ist sie einsatzbereit in:
- 3–5 Minuten, wenn es sich um eine virtuelle Maschine handelt
- 15–20 Minuten, wenn es sich um einen Bare-Metal-Server handelt
Ja. Füllen Sie dieses Formular aus, und unser Vertriebsteam wird Sie kontaktieren, um diese Option zu besprechen. Bitte beachten Sie, dass Sie nach Ablauf des Testzeitraums auf den regulären Pay-as-you-go-Tarif umgestellt werden.
Ja. Füllen Sie dieses Formular aus, und unser Vertriebsteam wird Sie kontaktieren, um diese Option zu besprechen.
Ja. Füllen Sie dieses Formular aus, und unser Verkaufsteam wird sich mit Ihnen in Verbindung setzen, um die Details zu besprechen und Sie auf unsere Warteliste zu setzen.