NVIDIA H100 GPUs mit InfiniBand für unübertroffene KI-Leistung.Jetzt starten!

Produkte

Lösungen

Ressourcen

Partner

Warum Gcore

Managed Kubernetes

Einfaches Einrichten, Verwalten und Skalieren von Kubernetes-Clustern.

Bare-Metal Support

Bare-Metal-Unterstützung für Worker-Nodes zur Verbesserung von Latenz und Performance.

Free Cluster Management

Kostenloses Cluster-Management in Produktiv-Qualität mit einem Service Level Agreement (SLA) von 99,9%.

Attraktive Tarife

Die Worker Nodes werden zu den gleichen günstigen Konditionen angeboten wie unsere VMs und Bare Metal Server.

Gcore Preise für Hochverfügbarkeitscluster mit SLA im Vergleich

Gcore bietet wettbewerbsfähige Tarife für Worker Nodes mit kostenlosem, produktiven Cluster Management und Egress Traffic.

* Die Preise sind auf der Grundlage eines Wechselkurses von 1 € = 1,06 $ dargestellt.

Frankfurt

Frankfurt

All over the world

All over the world

Frankfurt

Frankfurt

Frankfurt

Frankfurt

Germany West Central

Germany West Central

Gebühr für das Management hochverfügbarer Produktionscluster.

FREE**

€37.74

€68.87

€68.87

€68.87

Egress traffic

FREE**

€0.009

per GiB

€0.047–0.085

per GiB

€0.066–0.075

per GiB

€0.066–0.075

per GiB

2 vCPU / 4 GB RAM / 25 GB SSD / 4 TB egress traffic + cluster management

€35.29

€77.36

€485.69

€472.16

€443.42

4 vCPU / 8 GB RAM / 50 GB SSD / 8 TB egress traffic + cluster management

€68.02

€147.1

€902.5

€875.45

€826.51

8 vCPU / 16 GB RAM / 75 GB SSD / 16 TB egress traffic + cluster management

€131.18

€294.19

€1,704.92

€1,561.37

€1,493.7

16 vCPU / 32 GB RAM / 100 GB SSD / 24 TB egress traffic + cluster management

€254.84

€520.53

€2,631.28

€2,348.83

€2,266.66

32 vCPU / 64 GB RAM / 125 GB SSD / 32 TB egress traffic + cluster management

€499.88

€895.93

€3,824.85

€3,416.69

€3,303.17

Gebühr für das Management hochverfügbarer Produktionscluster.

Egress traffic

2 vCPU / 4 GB RAM / 25 GB SSD / 4 TB egress traffic + cluster management

4 vCPU / 8 GB RAM / 50 GB SSD / 8 TB egress traffic + cluster management

8 vCPU / 16 GB RAM / 75 GB SSD / 16 TB egress traffic + cluster management

16 vCPU / 32 GB RAM / 100 GB SSD / 24 TB egress traffic + cluster management

32 vCPU / 64 GB RAM / 125 GB SSD / 32 TB egress traffic + cluster management

Frankfurt

FREE**

All over the world

€37.74

All over the world

Frankfurt

€68.87

Frankfurt

Frankfurt

€68.87

Frankfurt

Germany West Central

€68.87

Germany West Central

*Alle Preise verstehen sich pro Monat.
**Für Worker-Nodes, die auf virtuellen Instanzen basieren.

Managed Kubernetes Preisrechner

Cluster-1

Region

Pools

Worker-Knotentyp
CPU Generation
Virtual Machine-Typ
vCPU / RAM
Ausgehender Traffic

Worker Volume

Volumen-Typ
Volumengröße

1

16000

GB

Anzahl der Worker-Knoten

1

20

Standorte mit
Managed Kubernetes

Warum Gcore Managed
Kubernetes?

One-click Provisioning

Stellen Sie Ihre Worker Nodes mit wenigen Mausklicks über das Gcore Self Service Portal, die API oder über Terraform bereit.

Unterstützung von GPU Worker Nodes

Gcore Managed Kubernetes Cluster unterstützen GPU-Worker-Nodes, mit denen GPU-intensive Workloads wie maschinelles Lernen, Videoverarbeitung oder Gaming ausgeführt werden können.

Aktuelle Versionen

Unterstützung von mindestens vier aktuellen Kubernetes-Versionen.

Automated Control

Der Zustand Ihrer Nodes wird kontinuierlich überwacht, aktualisiert und bei Bedarf automatisch neu gestartet.

Automated Scaling

Innerhalb Ihres Clusters kann die Anzahl der Nodes in Ihrem Pool automatisch dynamisch nach oben oder unten skaliert werden.

Hochverfügbarkeit

Jedes Cluster-Dashboard wird dupliziert. Dadurch wird sichergestellt, dass der Cluster immer verfügbar ist.

Sichere Verbindungen

Alle Verbindungen zwischen dem Master-Node und den Nodes innerhalb eines Clusters werden automatisch verschlüsselt.

DDoS-Schutz

Ihre Projekte sind standardmäßig vor DDoS-Angriffen auf Netz- und Transportebene geschützt.

24/7 technischer Support

Schnelle Hilfe und technischer Kundendienst rund um die Uhr.

Funktionsweise

Zur Dokumentation
Funktionsweise

Erhalten Sie einen auf Ihre Bedürfnisse zugeschnittenen Leistungsumfang.

Virtuelle Maschinen als Worker Nodes

Die Bereitstellung eines Kubernetes-Clusters auf virtuellen Maschinen (VMs) erfordert eine zusätzliche Infrastrukturebene - einen Hypervisor, der die VMs orchestriert. Ein Hypervisor verbraucht einen Teil der Ressourcen eines physischen Servers, in der Regel CPU und RAM, d.h. er beansprucht einen Teil der Rechenkapazität.

  • Schnellere Bereitstellung von Nodes
  • Schnellere Skalierbarkeit des Clusters
  • Einfacheres Betriebssystem-Update und Backup
Virtuelle Maschinen als Worker Nodes

Bare Metal als Worker Nodes

Wenn Sie einen Kubernetes-Cluster auf Bare Metal betreiben, haben Sie keinen Hypervisor und kein Gast-OS. Daher nutzen Ihre containerisierten Anwendungen die physischen Serverressourcen direkt und vollständig.

  • Bessere Rechenleistung
  • Geringere Netzwerklatenz
  • Keine Probleme durch "laute" Nachbarn
  • Better compute performance
  • Lower network latency
  • No problems with noisy neighbors
Bare Metal als Worker Nodes

FAQ

Managed Kubernetes ist ein Service, der eine gehostete Kubernetes-Umgebung anbietet. Das bedeutet, dass der Anbieter von Managed Kubernetes die Infrastruktur verwaltet, z. B. die Bereitstellung und Verwaltung von Knoten, die Verwaltung der Kubernetes-Kontrollebene und die Aktualisierung von Kubernetes selbst. So können sich Kunden auf die Entwicklung und Bereitstellung von Anwendungen auf Kubernetes konzentrieren und müssen sich nicht um die Verwaltung der Kontrollebene und die Wartung der Infrastruktur kümmern.
<br Um mehr über Managed Services zu erfahren, lesen Sie unseren Artikel "Was sind Managed Services?". Um mehr über Kubernetes zu erfahren, lesen Sie den Artikel "Was ist ein Kubernetes Cluster?".

Für die meisten Unternehmen ist Managed Kubernetes die bessere Wahl als Self-managed Kubernetes. Der Betrieb eines selbst administrierten Kubernetes-Clusters bedeutet, dass man alles selbst machen muss:

  • Bereitstellung der Infrastruktur
  • Verwaltung der Steuerungsebene
  • Knoten bereitstellen und verwalten
  • Gewährleistung von Sicherheit und Zuverlässigkeit
  • Ein Team von Ingenieuren mit hoher Qualifikation
  • einen hohen operativen Aufwand, der sich aus all diesen Punkten ergibt.

    Ein Managed Kubernetes Provider kümmert sich um all diese Aspekte. Wenn Sie jedoch mehr Kontrolle über Ihre Kubernetes-Cluster haben möchten, ist ein Self-Managed Kubernetes möglicherweise das Richtige für Sie. Die Entscheidung, wie Sie Kubernetes betreiben, hängt von den spezifischen Bedürfnissen und Anforderungen Ihres Unternehmens ab.

Der Betrieb eines Kubernetes-Clusters auf Bare Metal hat vier wesentliche Vorteile:

Performance Cluster, die auf Bare Metal laufen, haben keinen Hypervisor-Overhead und können daher eine bessere Performance bieten als Cluster, die auf virtuellen Maschinen laufen. Dies ist besonders wichtig für Anwendungen, die eine geringe Latenz und einen hohen Durchsatz erfordern.

Kontrolle Bare Metal gibt Ihnen die volle Kontrolle über die zugrunde liegende Infrastruktur. Das bedeutet, dass Sie die Hardware auswählen können, die Ihren Anforderungen am besten entspricht, und sie entsprechend konfigurieren können.

Latenz Wenn Sie einen Kubernetes-Cluster auf Bare Metal betreiben, haben Sie keine zusätzliche virtuelle Netzwerkschicht. Die Anwendungen kommunizieren direkt über die physikalischen Netzwerkschnittstellen. Das Ergebnis ist eine geringere Netzwerklatenz.

Sicherheit Der Einsatz von Kubernetes auf Bare Metal bietet mehr Schutz als VMs, da die Infrastruktur nicht mit anderen Benutzern geteilt wird. Sie haben die volle Kontrolle über die Sicherheitsmaßnahmen und können individuelle Sicherheitsprotokolle anwenden.

Lesen Sie mehr zu diesem Thema in unserem Artikel.

Nein, Sie können nur Worker Nodes verwalten. Gcore kümmert sich um die Verwaltung der Steuerungsebene. Einer der Vorteile eines Managed Kubernetes Service ist der geringere Betriebsaufwand, da Sie die Master Nodes nicht selbst administrieren müssen. Dies gewährleistet auch die Zuverlässigkeit und Sicherheit Ihrer Kubernetes-Cluster.

Ja, das können Sie. Um mehr über die Installation von nginx Ingress Controller zu erfahren, sehen Sie sich unsere Dokumentation an und lesen Sie das Tutorial zur Installation von nginx mit Gcore Managed Kubernetes und Helm.

Ja, Sie können während der Clustererstellung GPU-Instanzen für die Ausführung Ihrer Work Nodes auswählen.

Wir bieten ein SLA von 99,9%. Das bedeutet, dass Gcore Managed Kubernetes für den Betrieb Ihrer produktiven Cluster mit hochverfügbaren Anwendungen geeignet ist.

Gcore Managed Kubernetes unterstützt Ubuntu für VM und Bare Metal Worker Nodes.

Es gibt keine Gcore-Einschränkungen für Anwendungen und Tools, die bereits auf Kubernetes laufen, einschließlich solcher, die Open Source sind. Es kann jedoch Einschränkungen für Tools geben, die gemanagte Services sind, und nur mit einem bestimmten Anbieter funktionieren. Wenn Sie beispielsweise einen anderen Managed Kubernetes Service mit integriertem Managed Logging verwendet haben, um Logs von Ihren Clustern zu sammeln, funktioniert dieses Managed Logging möglicherweise nicht mit Ihren Clustern, die in Gcore Managed Kubernetes laufen. Überprüfen Sie, welche Ihrer vorhandenen Tools mögliche Einschränkungen bei der Integration mit anderen Kubernetes Managed Services haben.

Nein, es werden nur die als Worker Nodes bestellten Instanzen berechnet. Sie können auch zusätzliche Dienste und Optionen erwerben, wie z.B. eine Floating-IP.

Bei Verwendung von VM Worker Nodes fallen keine Gebühren für Egress Traffic an. Egress-Verkehr über Bare Metal Worker Nodes ist jedoch kostenpflichtig.

Angenommen, Sie betreiben Ihren Cluster auf zwei VM Worker Nodes mit einer Basiskonfiguration von 2 vCPU, 4 GB RAM, 25 GB SSD und 4 TB Egress Traffic. Ein solcher Worker Node kostet 35,29 € US-Dollar pro Monat, inklusive Traffic und ohne Gebühren für das Management der Steuerungsebene. Ihr Cluster kostet Sie also 70,58 € pro Monat. Sie können Ihre Kosten mit unserem Cloud-Rechner berechnen.

Bei aktiviertem [Auto-Scaling] wird die Anzahl der pro Stunde genutzten Knoten berechnet (https://gcore.com/docs/cloud/kubernetes/clusters/autoscaling/about-autoscaling). Sie können die Schwellenwerte konfigurieren, oberhalb derer Ihr Cluster nicht skaliert wird.

Testen Sie unsere Lösung und erstellen Sie Ihr individuelles
Managed Kubernetes

Verwandte Produkte

Function as a Service

Serverless Computing Services zur Ausführung von Code in einer Ready-to-Run-Umgebung.

Managed Logging

Sammeln Sie die Logs von all Ihren Servern in einem einzigen Repository.