Entdecken Sie Gcore Cloud Edge Services.
Servicegruppe
- Servicegruppe
- Erfahren Sie mehr →
Virtuelle Instanzen
Beschleunigen Sie die Bereitstellung von Projekten mit vorkonfigurierten virtuellen Instanz-Images.
- Erfahren Sie mehr →
App Marketplace
Erhalten Sie Zugang zu vorkonfigurierten Systemen und angewandten Diensten oder schlagen Sie Ihr eigenes Produkt vor.
Leistungsstarke Computing-Ressourcen und Services an über 50+ Standorten auf der ganzen Welt
Bereitstellen von Instanzen an optimalen Standorten auf der ganzen Welt innerhalb von 15 Minuten. Keine Notwendigkeit, nach Tier-IV-Rechenzentren zu suchen, fortschrittliche Hardware zu kaufen und sich um Upgrades zu kümmern.
Latenztest
Lösungen für alle Branchen
Gaming
Erstellen Sie Spiele und integrieren Sie jede Online-Unterhaltungslösung beliebiger Komplexität.
Eine einfache Möglichkeit, Ihre Cloud zu steuern.
Das Cloud Control Panel beinhaltet auch andere Infrastrukturprodukten: CDN, Streaming, Storage, DDoS-Schutz und DNS-Hosting.

Verwalten Sie alle Cloud-Dienste mit einem einfachen und effizienten Panel.
Lesen Sie in unserem Blog über neue Standorte, Konfigurationen und Funktionen.
Weitere Artikel →
Edge Cloud-Updates für Dezember 2024Wir freuen uns, Ihnen die neuesten Erweiterungen unserer Edge Cloud-Plattform vorstellen zu können, mit denen Sie mehr Flexibilität, Zuverlässigkeit und Kontrolle über Ihre Infrastruktur erhalten. Die Updates umfassen die Unterstützung mehrerer öffentlicher IPs für Bare Metal und verstärkte Maßnahmen zum Schutz vor Missbrauch. Für Neukunden haben wir ein exklusives Angebot für die Aktivierung von Bare Metal-Servern. Alle Details hierzu finden Sie in diesem Blog.Unterstützung mehrerer öffentlicher IPs für Bare MetalWir führen die Unterstützung mehrerer öffentliche IPs für Bare Metal-Server in dedizierten öffentlichen Subnetzen ein und erhöhen damit ihre Flexibilität und Zuverlässigkeit. Mit diesem Update können Sie zur Sicherung einer nahtlosen Servicekontinuität mehrere öffentliche IP-Adressen konfigurieren und so die Stabilität Ihrer Infrastruktur erhöhen. Mit mehreren IPs bleiben Ihre Dienste ohne Unterbrechung online, selbst wenn eine IP-Adresse ausfallen sollte.Diese Funktionalität bietet eine hohe Flexibilität und ermöglicht es Ihnen, Ihren Betrieb mühelos zu skalieren. Besonders nützlich ist dies bei der Bewältigung unterschiedlicher Workloads, der Steuerung des Datenverkehrs und bei komplexen Hosting-Umgebungen. Es ist zudem eine ideale Lösung für Hypervisor-Umgebungen, in denen die Trennung des Datenverkehrs über verschiedene IPs unerlässlich ist.Das müssen Sie wissen, bevor Sie loslegen:Diese Funktion funktioniert ausschließlich mit einem dedizierten öffentlichen Subnetz.Um diese Funktion zu aktivieren, stellen Sie bitte eine Anfrage an unser Support-Team.Die Anzahl der unterstützten öffentlichen IPs ist durch die Größe des dedizierten Subnetzes begrenzt, das Ihrem Bare Metal-Server zugewiesen ist.Bitte wenden Sie sich an unser Support-Team, wenn Sie künftig mehrere öffentliche IPs nutzen möchten.Verschärfte Maßnahmen zur Vermeidung von MissbrauchWir haben neue Maßnahmen zum Schutz vor Missbrauch ergriffen, um problematische Datenverkehrsmuster zu erkennen und einzudämmen, die Zuverlässigkeit der Services zu verbessern und Ihre Infrastruktur vor gefährlichen Aktivitäten zu sichern. Diese Updates tragen dazu bei, Ihr Netzwerk zu schützen und eine konsistente Leistungsfähigkeit Ihrer Applikationen zu erzielen.Weitere Informationen finden Sie in unserer Produktdokumentation.Testen Sie Bare Metal diesen Monat mit 35 % RabattGcore Bare Metal-Server sind die perfekte Wahl, um herausragende Performance zu erzielen und auch die anspruchsvollsten Workloads zu bewältigen. Durch ihre globale Verfügbarkeit bieten sie eine zuverlässige, leistungsstarke und skalierbare Lösung, wo immer Sie sie brauchen. Für begrenzte Zeit erhalten Neukunden zwei Monate lang 35 % Rabatt auf High-Frequency Bare Metal-Server*.Falls Sie von Ihrem Anbieter während Spitzenzeiten enttäuscht wurden oder Ihre Leistungsfähigkeit für 2025 ausbauen möchten, ist das die Gelegenheit für Sie. Nutzen Sie das Angebot bis zum 7. Januar, um sich einen der Rabatte für die ersten 500 Kunden zu sichern.Nutzen Sie das volle Potenzial der Edge CloudDiese Updates unterstreichen unser Engagement, Ihr Unternehmen fortlaufend mit Tools und Funktionen zu unterstützen, die Ihre Anforderungen erfüllen. Ob es um die Erhöhung von Flexibilität, einfacheres Server-Management oder bessere Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Ob es um die Erhöhung von Flexibilität, einfacheres Server-Management oder mehr Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Entdecken Sie Bare Metal von Gcore* Hinweis: Dieses Angebot gilt bis zum 7. Januar 2025. Der Rabatt gilt für zwei Monate ab Beginn des Abonnements und exklusiv für Neukunden, die High-Frequency Bare Metal-Server aktivieren. Der Rabatt erlischt automatisch nach zwei Monaten. Das Angebot ist auf die ersten 500 Aktivierungen beschränkt.
03 Dec 2024
Edge Cloud-Updates für Oktober 2024Heute kündigen wir eine Reihe wichtiger Verbesserungen unserer Edge-Cloud-Lösungen an, die alle darauf ausgerichtet sind, Ihnen mehr Leistung, Flexibilität und Kontrolle über Ihre Cloud-Infrastruktur zu bieten. Lesen Sie weiter, um zu erfahren, warum wir in der IDC MarketScape 2024 für European Public Cloud als Major Player anerkannt wurden und erfahren Sie mehr über die Bare-Metal-Verfügbarkeit.Gcore wird im IDC MarketScape für die europäische Public Cloud 2024 als Major Player ausgezeichnetWir freuen uns, bekannt zu geben, dass wir im IDC MarketScape: European Public Cloud Infrastructure (IaaS) 2024 Bericht als Major Player ausgezeichnet wurden. Dieser Bericht bewertet und vergleicht Anbieter von Public Cloud-Infrastruktur-as-a-Service (IaaS) in ganz Europa, einschließlich globaler und regionaler Cloud-Anbieter, um die wichtigsten Akteure in der IaaS-Branche zu identifizieren.Diese Anerkennung als Major Player unterstreicht unser Engagement bei Gcore, hochwertige Cloud-Services bereitzustellen, die Unternehmen bei der Innovation, Skalierung und Sicherung ihrer Anwendungen mit höchster Zuverlässigkeit unterstützen. Wir setzen alles daran, die Bedürfnisse unserer Kunden mit leistungsstarken, auf Performance, Sicherheit und Skalierbarkeit zugeschnittenen Lösungen zu unterstützen und die Komplexität des Infrastrukturmanagements zu minimieren, damit Sie sich voll auf den Ausbau Ihres Unternehmens konzentrieren können.Bitte Lesen Sie die vollständige Pressemitteilung, um mehr zu erfahren.Inbetriebnahme zusätzlicher Hochfrequenz-Bare-Metal-ServerNutzen Sie die Leistung unserer neuesten Bare-Metal-Hochgeschwindigkeitsserver in Manassas, Amsterdam, Santa Clara, Singapur, Sydney und Luxemburg. Mit einer Kapazität von 128 GB RAM wurde diese Neuerung speziell für rechenintensive und latenzsensible Workloads entwickelt.Das neue Angebot in unserem Bare-Metal-Sortiment bietet die Leistung und Zuverlässigkeit, um Ihre anspruchsvollsten Anwendungen zu beschleunigen. Profitieren Sie von dedizierter Rechenleistung, Effizienz und niedrigen Latenzzeiten, die sich perfekt für High-Performance-Computing, Echtzeit-Datenanalysen und umfangreiche Simulationen eignen.Gcore Bare Metal-Server sind an 19 Standorten auf sechs Kontinenten verfügbar. Mit nur wenigen Klicks im Gcore-Kundenportal können Sie Ihren neuen hochfrequenten Server problemlos einrichten. Oder nehmen Sie Kontakt auf, wenn Sie mit einem Gcore-Experten sprechen möchten.FazitMit diesen Oktober-Updates 2024 setzen wir unser Engagement fort, Ihnen die Tools, die Leistung und die Zuverlässigkeit zu bieten, die Sie benötigen, um Ihr Unternehmen mit Zuversicht auszubauen und zu skalieren. Bleiben Sie auf dem Laufenden. Wir werden unsere Edge Cloud Lösungen weiter optimieren.Erfahren Sie mehr über Gcore Edge Cloud
21 Oct 2025
Die 5 besten kostenlosen GUI-Tools für KubernetesEine grafische Benutzeroberfläche (GUI) für Kubernetes ist ein visuelles Tool, mit dem Sie Kubernetes-Cluster über eine benutzerfreundliche Oberfläche mit Fenstern, Schaltflächen und Symbolen verwalten und überwachen können. Dies ist eine Alternative zur Verwendung der Befehlszeilenschnittstelle (CLI) wie kubectl. GUIs bieten eine Reihe von Funktionen zur Vereinfachung der Kubernetes-Verwaltung, von der Bereitstellung von Anwendungen bis hin zur Überwachung von Ressourcen und der Fehlerbehebung bei Problemen. In diesem Artikel werden wir die 5 besten kostenlosen GUI-Tools für Kubernetes, ihre Funktionen, Stärken und Schwächen vorstellen. Wir zeigen Ihnen auch, wie Sie Lens installieren und wie Sie damit eine Verbindung zu einem Gcore Managed Kubernetes-Cluster herstellen.Wie wir zu der Entscheidung für die K8-GUIs gekommen sindBei der Auswahl kostenloser GUIs für Kubernetes haben wir nach Tools gesucht, die die wesentlichen Funktionen für die Verwaltung eines K8s-Clusters in Produktionsqualität bieten. Diese Werkzeuge müssen nicht mit dem umfangreichen Funktionsumfang von kubectl übereinstimmen, da dies zu einer unübersichtlichen und übermäßig komplexen Schnittstelle führen könnte. Eine grafische Benutzeroberfläche sollte jedoch alle wichtigen Clusterkomponenten visualisieren und es den Benutzern ermöglichen, wichtige Verwaltungsvorgänge wie die Bearbeitung von Manifesten, das Abrufen von Protokollen und die Fehlersuche durchzuführen.Unsere Top 5:Kubernetes DashboardLensOctantSkoonerKubeviousAlle diese GUIs sind mit Gcore Managed Kubernetes kompatibel.Schauen wir uns die einzelnen Tools genauer an, wobei wir uns auf ihre wichtigsten Merkmale, Stärken und Schwächen konzentrieren.Kubernetes DashboardKubernetes Dashboard ist eine beliebte GUI, die von der Kubernetes-Community unterstützt und entwickelt wird. Es ist für den täglichen Betrieb und das Debugging von Anwendungen im Cluster gedacht.Abbildung 1: Kubernetes Dashboard GUIDas Dashboard bietet eine übersichtliche und bequeme Navigation durch die Cluster-Namensräume und zeigt alle definierten Objekte an, z.B. Bereitstellungen, Daemon-Sets und Dienste. Mit der RBAC-Funktionalität können Sie Entwicklern einen minimalen, aber ausreichenden Zugang zu einem Cluster gewähren, um die Aufgaben auszuführen, zu denen sie berechtigt sind. Es gibt auch einen Log Viewer, mit dem Sie die Protokolle der Container eines Pods einsehen können.Mit Kubernetes Dashboard können Sie containerisierte Anwendungen als Bereitstellungen erstellen und ausführen. Dazu müssen Sie die Details Ihrer Anwendung manuell angeben oder ein YAML- oder JSON-Manifest mit ihrer Konfiguration hochladen.Der größte Nachteil des Dashboards ist die fehlende Unterstützung mehrerer Cluster. Wenn Sie mehrere K8s-Cluster haben, müssen Sie separate Dashboards für diese konfigurieren.ProsIntuitive Navigation durch alle wichtigen Objekte eines ClustersAnsicht der Anwendungen nach Art und ZusammenschaltungAnsicht von Ingresses und Services, einschließlich ihrer Verbindungen zu PodsAnsicht von Persistent Volumes und Persistent Volume-AnsprüchenBearbeiten von ConfigMaps und SecretsPod LogsConsKeine Multi-Cluster-UnterstützungKeine Unterstützung für Helm Charts (vorgefertigte Anwendungen für K8s)Begrenzte AnpassungsmöglichkeitenNützliche LinksInstallationsanleitungBenutzerhandbuchWie man Anwendungen einsetztLensAbbildung 2: Benutzeroberfläche des ObjektivsLens ist als vollwertige IDE (integrierte Entwicklungsumgebung) für Kubernetes positioniert und eignet sich für alle Benutzerebenen, vom Anfänger bis zum Fortgeschrittenen. Eine IDE ist eine Softwareanwendung, die Programmierern umfassende Funktionen für die Softwareentwicklung zur Verfügung stellt, darunter einen Code-Editor, einen Debugger und Werkzeuge zur Automatisierung der Erstellung. Als eine Art grafische Benutzeroberfläche (GUI) bietet eine IDE einen visuellen Ansatz für die Softwareentwicklung, der die Verwaltung und Navigation komplexer Kodierungsaufgaben erleichtert. Im Gegensatz zum Kubernetes Dashboard, das eine Web-UI ist, ist Lens eine eigenständige Anwendung für macOS, Windows und Linux.Lens bietet viele nützliche Funktionen, darunter Unterstützung für mehrere Cluster, Helm Charts und integriertes Prometheus, das Statistiken über die Nutzung von Rechenressourcen sammelt. Außerdem bietet es Befehlszeilenzugriff auf Clusterknoten und Container. Was die Sicherheit betrifft, so unterstützt es RBAC und ermöglicht die Bearbeitung von Secrets.Ein weiterer Vorteil von Lens ist die integrierte Kommandozeile mit vorinstalliertem kubectl. Diese Befehlszeile wird automatisch mit der Kubernetes-API des Clusters synchronisiert, sodass Sie nicht mehrere Versionen von kubectl auf Ihrem Rechner installieren müssen, um mit verschiedenen Clustern zu arbeiten. Mit Lens haben Sie eine einzige kubectl-Instanz, die nahtlos in allen Ihren Clustern funktioniert.Später in diesem Artikel werden wir Lens verwenden, um eine Verbindung zu einem Gcore Managed Kubernetes-Cluster herzustellen und die GUI genauer zu untersuchen.ProsUmfassende VerwaltungsfunktionenMulti-Cluster-UnterstützungHelm-Chart-Einsatz mit vorinstallierten gängigen RepositoriesPrometheus-IntegrationIntegrierte CLI mit vorinstalliertem kubectl und Helm v3ConsEingeschränkte Sicherheitsfunktionen in der kostenlosen VersionAktualisierungen von Pod-Protokollen nicht in EchtzeitNützliche LinksErste SchritteAnleitungen für allgemeine AufgabenVerwalten von Helm ChartsKubernetes Web-AnsichtAbbildung 3: Kubernetes Web View BenutzeroberflächeKubernetes Web View ist ein Tool, das Administratoren helfen soll, auf Vorfälle zu reagieren und Fehler in einem K8s-Cluster zu beheben. Sein Autor, Henning Jacobs, nennt es „eine Web-Version von kubectl“. Kubernetes Web View unterstützt:Installationen mit mehreren ClusternVerfügbarkeit aller read-onlly Operationen von kubectlErstellung von permanenten Links zu K8s-Objekten und Deep Links zu bestimmten Abschnitten von YAML-ManifestenKubernetes Web View ist ein einfacheres Tool als z.B. Kubernetes Dashboard; es bietet eine weniger detaillierte Visualisierung. Aber das ist in Ordnung, wenn man bedenkt, dass seine Hauptnutzer wahrscheinlich erfahrene K8s-Administratoren sind.Leider unterstützt die Kubernetes-Webansicht kein Anwendungsmanagement über Deployments oder Helm Charts. Eine weitere Einschränkung ist, dass die grafische Benutzeroberfläche nur von Henning Jacobs entwickelt und seit 2021 nicht mehr aktualisiert worden ist.ProsUnterstützung für alle Kubernetes-ObjekteVerfügbarkeit aller Nur-Lese-Operationen von kubectlMulti-Cluster-UnterstützungEinfaches, zuverlässiges Frontend, das hauptsächlich auf HTML mit minimalem JavaScript basiertDauerhafte Verknüpfungen mit K8s-ObjektenDeep-Links auf bestimmte Abschnitte von YAML manifestsBearbeitung von Ressourcen als YAML manifestsConsEingeschränkte VisualisierungKein AnwendungsmanagementNur ein BeitragszahlerNicht aktiv mehr entwickeltKeine Unterstützung für Helm-ChartsNützliche LinksSchnellstartDokumentationSkooner (k8dash)Abbildung 4: Benutzeroberfläche von SkoonerSkooner, früher bekannt als k8dash, ist eine Web-UI für Echtzeit-Cluster-Management. Es bietet eine breite Palette von Funktionen, von der Erstellung von Kubernetes-Objekten bis hin zu Metriken zur Kontrolle des Ressourcenverbrauchs. Mit Skooner können Sie den Zustand eines Clusters anhand von Live-Diagrammen anzeigen und schlecht funktionierende Ressourcen verfolgen. Es ist auch das einzige mobil-optimierte Tool auf dieser Liste, so dass Sie Ihren Cluster über ein Telefon oder Tablet verwalten können.Die Hauptnachteile von Skooner sind die fehlende Unterstützung für Multicluster-Installationen und CRDs (Custom Resource Definitions). Außerdem kann der Installationsprozess für Kubernetes-Neulinge knifflig sein.ProsUnterstützung für wichtige K8s-Komponenten, einschließlich Namespaces, Nodes, Pods, Deployments, Replica Sets und StorageRBAC-UnterstützungBearbeitung von Ressourcen als YAML manifestsReal-time tracking des Cluster ZustandesIntegration von Open IDResponsive DesignConsKeine Multi-Cluster-UnterstützungKeine Unterstützung von CRDsKeine Unterstützung für Helm-ChartsNützliche LinksÜbersicht der ToolsEinrichtungKubeviousAbbildung 5: Kubevious GUIKubevious ist die einzige sicherheitsorientierte kostenlose GUI für Kubernetes in unserer Liste. Sein Hauptziel ist es, den Zustand und die Konfiguration eines Clusters sowie die Anwendungsmanifeste zu validieren. Kubevious kann Fehler wie Fehlkonfigurationen, Konflikte und sogar Tippfehler erkennen und verhindern. Es hilft Ihnen, die besten Praktiken für die Konfiguration und Verwaltung von Kubernetes zu befolgen. Sie können RBAC (rollenbasierte Zugriffskontrolle) auch über ein Arbeitsblatt mit verknüpften Rollen, Rollenbindungen und Dienstkonten verwalten.Die grafische Benutzeroberfläche von Kubevious zeigt Kubernetes-Objekte in einer Baumstruktur an und bietet Administratoren einen klaren Überblick über Microservices, ihre Verbindungen und Abhängigkeiten. Sie bietet auch verschiedene „Ansichten“ eines Clusters aus bestimmten Perspektiven. Die Logic-Ansicht konzentriert sich beispielsweise auf Anwendungskomponenten und Abhängigkeiten, während sich die Image-Ansicht auf Container-Images und deren Repositories konzentriert, die in einem K8s-Cluster verwendet werden.Der größte Nachteil von Kubevious ist die fehlende Multicluster-Unterstützung. Außerdem scheint der Entwicklungsprozess zu stagnieren: Die letzte Aktualisierung erfolgte im Jahr 2022.ProsLeistungsstarke Sicherheits- und FehlerbehebungsfunktionenErweiterte RBAC-UnterstützungOriginelle und klare Darstellung der Struktur der K8s-ObjekteKapazitätsplanung und Optimierung der RessourcennutzungIntegrierte Zeitmaschine zur Anzeige früherer ClusterkonfigurationenImpulse für die Anwendung von Best Practices für DevOpsConsKeine Multi-Cluster-UnterstützungNicht mehr aktiv weiterentwickeltKeine Unterstützung für Helm-ChartsNützliche LinksErste SchritteIntegrierte Cloud-Native-ToolsTime MachineVergleichstabelleNach der Überprüfung der einzelnen kostenlosen GUI-Tools für Kubernetes fassen wir ihre wichtigsten Funktionen in einem Vergleichsdiagramm zusammen, um die allgemeinen Funktionsunterschiede zu sehen. Kubernetes DashboardLensKubernetes Web-AnsichtSkoonerKubeviousInstallation typeK8s-ClusterDesktopDesktop, K8s-ClusterK8s-ClusterDesktop, K8s-ClusterVisualisierung des Clusterzustands✅✅✅✅✅Objekte finden✅✅✅✅✅Erstellen und Bearbeiten von Objekten✅✅–✅–Einsehen der YAML-Konfiguration✅✅✅✅✅RBAC-Verwaltung✅✅–✅–Helm-Support–✅–––Metriken zur Ressourcennutzung✅✅–✅✅Multi-Cluster-Unterstützung–✅✅––Pod Logs✅✅✅✅–Empfehlungen zur Ressourcenoptimierung–✅✅✅–Zusammenfassung des EntscheidungsfindungsprozessesDie Wahl des richtigen GUI-Tools für Kubernetes hängt von Ihren Projektanforderungen ab. Wenn Sie beispielsweise mehrere Cluster haben, werden Sie wahrscheinlich GUIs vermeiden, die keine Multicluster-Installationen unterstützen, und sich stattdessen für Kubernetes Dashboard, Skooner oder Kubevious entscheiden. Wenn Ihr Hauptaugenmerk auf der Sicherheit liegt, sollten Sie zuerst Kubevious in Betracht ziehen, auch wenn Lens die umfangreichste Funktionsliste zu haben scheint – manchmal ist eine spezialisierte GUI für Ihr Projekt besser geeignet als die mit den umfangreichsten Funktionen.Wir empfehlen Ihnen, mindestens drei verschiedene grafische Benutzeroberflächen auszuprobieren, um deren Fähigkeiten zu testen und zu sehen, wie gut sie Ihren Anforderungen entsprechen. Diese praktische Erfahrung wird Ihnen helfen, ihre Stärken und Schwächen im Zusammenhang mit Ihren spezifischen Projektanforderungen zu verstehen, so dass Sie eine fundierte Entscheidung treffen können.So installieren Sie Lens und greifen auf Gcore Managed Kubernetes zuGcore Managed Kubernetes bietet eine einfache und schnelle Möglichkeit, einen K8s-Cluster in der Cloud zu betreiben. In 10-15 Minuten haben Sie einen produktionsfähigen Cluster. Dann können Sie eine beliebige freie GUI installieren, um alle Funktionen zu nutzen, wenn Sie mit unserem Managed Kubernetes arbeiten. Wir zeigen Ihnen, wie Sie dies am Beispiel der grafischen Benutzeroberfläche für Lens tun können.Hier erfahren Sie, wie Sie Lens mit Gcore Managed Kubernetes einsetzen können:Erstellen Sie einen Kubernetes-Cluster in der Gcore Edge Cloud.Laden Sie die Kubernetes-Konfigurationsdatei herunter.Installieren und aktivieren Sie Lens.Verbinden Sie sich mit Ihrem Kubernetes-Cluster.Wir zeigen Ihnen auch, wie Sie Lens Metrics aktivieren, damit Sie sehen können, wie viele Rechenressourcen Ihr Cluster verbraucht.1. Erstellen eines Kubernetes-Clusters in der Gcore CloudMelden Sie sich im Gcore-Kundenportal an. Wenn Sie noch nicht registriert sind, melden Sie sich kostenlos mit Ihrem E-Mail-, Google- oder GitHub-Konto an.Klicken Sie im linken Navigationsmenü auf Cloud und dann auf Kubernetes. Klicken Sie auf der Hauptregisterkarte auf Cluster erstellen.Abbildung 6: Erstellen eines Gcore-Kubernetes-ClustersKonfigurieren Sie Ihren Cluster nach Bedarf, oder befolgen Sie die unten stehenden Mindestempfehlungen, die ausreichen, um Lens zu testen und zu prüfen, ob es für Sie geeignet ist:Region: Ihre bevorzugte Managed Kubernetes-RegionVersion des Kubernetes-Clusters: Es ist besser, die neueste K8s-Version zu wählen, die derzeit 1.29.2 ist.Pool > Minimum / Maximum Knoten: 1/1Instanztyp: Virtuelle Instanzen, 2 vCPU / 4 GiB Speicher sind ausreichendDatenträgertyp: SSD mit hohem IOPS-Wert 50 GiBNetzwerk-Einstellungen: Neues Netzwerk und Subnetzwerk hinzufügen oder bestehende auswählenSSH-Schlüssel: Wählen Sie Ihren öffentlichen SSH-Schlüssel oder erzeugen Sie einen neuen.Clustername: cluster-1 (oder wie immer Sie wollen)Nachdem Sie die Einrichtungsschritte abgeschlossen haben, klicken Sie auf Cluster erstellen. Der Cluster wird im Abschnitt „Kubernetes-Cluster“ angezeigt. Warten Sie ein paar Minuten, bis der Status von „Erstellen“ auf „Bereitgestellt“ wechselt.Abbildung 7: Der bereitgestellte Cluster2. Download der Kubernetes-KonfigurationsdateiStarten Sie Terminal auf Ihrem lokalen Rechner und erstellen Sie einen .kube-Ordner:mkdir ~/.kubeGehen Sie im Gcore-Kundenportal zu Ihren Cluster-Einstellungen, klicken Sie auf Kubernetes-Konfiguration und laden Sie sie in den Ordner .kube herunter:Abbildung 8: Die Cluster-Einstellungen mit einer Kubernetes-KonfigurationsdateiBenennen Sie diese Datei von k8sConfig.yml in config um und entfernen Sie die Erweiterung .yml.Jetzt kann Lens auf Ihren Cluster zugreifen.3. Objektiv installieren und aktivierenLaden Sie Lens Desktop für Ihr Betriebssystem (OS) herunter und führen Sie das Paket aus, indem Sie die Lens-Anleitungen für ein bestimmtes OS befolgen.Wenn Sie das Programm starten, werden Sie aufgefordert, Ihr Lens zu registrieren, auch in der kostenlosen Version. Sie können dies mit ein paar Klicks tun; wir werden diese Anweisungen hier überspringen; bitte registrieren Sie Lens auf eigene Faust.Nach der Aktivierung von Lens sehen Sie einen Begrüßungsbildschirm wie diesen:Abbildung 9: Willkommensbildschirm von Lens4. Verbinden Sie sich mit Ihrem Kubernetes-ClusterWählen Sie in Lens in der oberen linken Ecke die Option Katalog und dann die Option Cluster. Klicken Sie auf die Schaltfläche + in der unteren rechten Ecke, um Ihre Konfigurationsdatei hinzuzufügen:Abbildung 10: ClusterlisteWählen Sie die zuvor heruntergeladene Konfigurationsdatei aus und klicken Sie auf Synchronisieren. Sie werden sehen, dass die Verbindung hergestellt wird:Abbildung 11: Verbinden mit dem ClusterSobald Lens mit Ihrem Cluster verbunden ist, wird es in der Clusterliste angezeigt.Herzlichen Glückwunsch! Sie sind nun bereit, Ihren Cluster mit Lens zu verwalten. Doppelklicken Sie auf Ihren Cluster, um eine Übersicht zu erhalten:Abbildung 12: Allgemeiner Überblick über den Cluster5. Objektivmetriken aktivieren (optional)Die Aktivierung von Lens Metrics hilft Ihnen, Ihren Cluster auf die eigentliche Arbeit vorzubereiten. Die Funktion bietet Metrics-Exporters, die Daten über die Ressourcennutzung Ihres Clusters sammeln.Öffnen Sie die Cluster-Einstellungen und wählen Sie Lens Metrics. Schalten Sie alle Optionen ein:Abbildung 13: Aktivieren von ObjektivmetrikenAuf der Cluster-Übersichtsseite sehen Sie, dass Lens begonnen hat, die CPU-, Speicher-, Netzwerk- und andere Ressourcennutzung zu visualisieren. Sie können sogar sehen, wie viele Rechenressourcen jede Anwendung verbraucht:Abbildung 14: Statistiken zum AnwendungsverbrauchFazitKostenlose GUI-Tools für Kubernetes bieten eine Reihe von Features und Funktionen für die Visualisierung und Verwaltung von Kubernetes-Ressourcen, von intuitiven webbasierten Schnittstellen bis hin zu Multi-Cluster-Unterstützung und YAML-Editoren. Einige GUIs sind universell einsetzbar, wie Lens und Kubernetes Dashboard, während andere spezifischer sind, wie Kubevious.Egal, für welche dieser kostenlosen Kubernetes-GUIs Sie sich entscheiden, Sie können sie mit Gcore Managed Kubernetes verwenden. Gcore Managed Kubernetes bietet Unterstützung für Bare-Metal- und Virtual-Machine-Worker-Nodes, kostenloses Cluster-Management mit einem SLA von 99,9 % und die gleichen Preise für Worker-Nodes wie für VMs und Bare-Metal-Instanzen.Erfahren Sie mehr über Gcore Managed Kubernetes
19 Nov 2025
Was wir garantieren.
Premium-Technischer Support
Unsere Experten helfen bei der Integration
DSGVO
Compliance
24/7-Verfügbarkeit
Echtzeit-Überwachung und Wartung
DDoS-Schutz
Auf Netzwerk- und Transportschichten
SLA
99.95 % mit Garantie
Aktuelle FallstudienWeitere Fallstudien

So skalierte ProSieben mit Gcore „Germany’s Next Topmodel TOPSHOT” für KI-Porträts in Echtzeit
Zur Feier der 20. Staffel von „Germany’s Next Topmodel“ (GNTM) präsentierte das Marketingteam von ProSieben „GNTM TOPSHOT“ – ein KI-gestütztes Feature in der Joyn-App, das es Nutzern erlaubt, ihre eigenen Fotos sofort in Porträts zu verwandeln, die denen aus der Show in nichts nachstehen.Die Herausforderungen, um mit der Dimension des multinationalen TV-Erfolges mitzuhalten, waren groß: massive Primetime-Spitzen bewältigen, Ergebnisse immer und überall in Echtzeit liefern und die strikte Einhaltung der EU-Datenschutzbestimmungen gewährleisten. Um diese Herausforderungen zu bewältigen, entschied sich ProSieben für Gcore Everywhere AI.Wir brauchten eine Lösung, die sich nach Bedarf skalieren lässt, in Sekundenschnelle liefert und Daten lokal speichert. Mit der Infrastruktur von Gcore konnten wir eine kreative Idee verwirklichen, ohne die User Experience zu beeinträchtigen.– Simon Hawe, Technischer Leiter, JoynDie Herausforderung: Kreativität in Echtzeit auf TV-LevelTOPSHOT musste fünf strenge und nicht verhandelbare Anforderungen erfüllen:Spitzenauslastung zur Primetime: Vor, während und nach der Live-Ausstrahlung in Deutschland, Österreich und der Schweiz stieg die Nutzung sprunghaft an.Extrem niedrige Latenz: Die Fans erwarteten ihr Ergebnis innerhalb von 5 bis 10 Sekunden pro Bild, vom Upload ihres Fotos bis zum fertig generierten Porträt.Privacy by Design: Joyn löscht alle Fotos sofort, um Nutzerdaten zu schützen. Caching und Speicherung waren keine Optionen. Dadurch musste jede Anfrage von Grund auf neu verarbeitet werden.Hohe Wiedergabetreue: Jedes Porträt erforderte einen etwa 100-stufigen Workflow für Segmentierung, Ausleuchtung, die Beibehaltung von Teint und Pose sowie die Bildkomposition, um der charakteristischen Ästhetik von GNTM zu entsprechen.Reibungslose User Experience: Um das Feature zu nutzen, sollte keine Anmeldung erforderlich sein. Die Bildgenerierung musste „einfach funktionieren“ – auch über mobile Netze.Aus Fans werden Models – jederzeit und überallProSieben benötigte eine Inferenzplattform, die skalierbar, datenschutzkonform und einfach zu integrieren war. Gcore Everywhere AI lieferte genau das.Ein Endpunkt, nächstgelegener Knoten: Smart Routing leitete jede Anfrage automatisch an den nächstgelegenen GPU-Endpunkt weiter, um Jitter und Wartezeiten auf ein Minimum zu reduzieren.Automatische Skalierung von GPUs: Die serverlose Orchestrierung korrigierte die GPU-Kapazität in Echtzeit nach oben oder unten und bewältigte so auch unvorhersehbare Spitzenlasten.EU-konforme Bereitstellungen: Die Unterstützung für eine hybride Infrastruktur (on premise, Gcore Cloud, Public Cloud) ermöglichte ProSieben volle Flexibilität bei der Datenresidenz.Optimiert für Bild-Workloads: Everywhere AI führte die komplexen Prozesse von TOPSHOT auf NVIDIA H100-, A100- und L40S-GPUs aus – die idealen Prozessoren für generative Bildmodelle.Unsere größte Herausforderung war es, visuelle Wiedergabetreue mit Echtzeit-Responses zu kombinieren. Mit dem Smart Routing und der automatischen Skalierung von Gcore wurde genau das in Primetime-Größenordnung möglich.– Benjamin Risom, Chief Product Officer, JoynDiese Architektur bot ProSieben folgende Vorteile:Der gesamte Datenverkehr wurde über einen einzigen Inferenz-Endpunkt geleitet, zusätzlich unterstützt durch einen eigenen Load Balancer.Porträts konnten innerhalb von weniger als 10 Sekunden generiert werden – selbst bei hohen Lasten während der Ausstrahlung der Show.Die strengen Datenschutzversprechen wurden eingehalten: keine Anmeldung erforderlich, keine Speicherung von Eingaben oder Ausgaben.Das neue Feature konnte nahtlos in die User Experience innerhalb der Joyn-App integriert werden.Im April 2025 ging TOPSHOT mit fünf Porträtszenen live. Wenige Wochen später kamen drei weitere hinzu.Da wir wussten, dass die Infrastruktur mit uns wachsen würde, konnten wir uns ganz auf die kreative Arbeit konzentrieren. Das hat es uns ermöglicht, unseren Zuschauern etwas wirklich Besonderes zu bieten.– Sebastian v. Wyschetzki, Creative Lead, Seven.One Entertainment GroupEchtzeit-Interaktion auf Primetime-LevelDer Launch von TOPSHOT fiel mit einer Staffel zusammen, die für sich genommen bereits für kulturelles Aufsehen sorgte.Das Finale der 20. Staffel von GNTM am 19. Juni 2025 wurde von 3,87 Millionen Zuschauern gesehen und erreichte einen Marktanteil von 22,4 % in der Zielgruppe der 14- bis 49-Jährigen.Im April 2025 verzeichnete Joyn 10 Millionen Zuschauer und damit +80 % im Vergleich zum Vorjahr. Im ersten Quartal 2025 stieg die Sehdauer im Vergleich zum Vorjahr um 40 %.TV-Total-Moderator Sebastian Pufpaff stellte TOPSHOT live in seiner Sendung vor, lobte die Optik und löste damit einen organischen Anstieg in der Nutzung aus.Die Fachpresse betonte die „skalierbare Gcore-Infrastruktur“ als Grundlage des Features.Die Plattform von Gcore erlaubte uns regionale Performance und bot Kontrolle über die Datenschutzanforderungen und GPU-Skalierung, ohne dass wir selbst eine Infrastruktur aufbauen und verwalten mussten.– Paolo Garri, Infrastrukturarchitekt, JoynWie geht es weiter?Um auf dem Erfolg von TOPSHOT aufzubauen, experimentiert ProSieben mit möglichen neuen KI-Erlebnissen für Fans – darunter Videoporträts, Echtzeitfilter oder stilisierte Animationen. Die flexible Infrastruktur von Gcore ermöglicht es dem Team, Ideen zu testen, ohne die Architektur umstellen zu müssen.Der Erfolg von TOPSHOT hat uns gezeigt, was möglich ist. Jetzt fragen wir uns: Was können wir damit noch alles machen?– Jutta Meyer, Executive VP Marketing & Creation, Seven.One Entertainment Group

Higgsfield AI startet Partnerschaft mit Gcore für skalierbare KI-Infrastruktur und Managed Kubernetes-Support
Das 2023 gegründete Unternehmen Higgsfield entwickelt eine Video-Reasoning-Engine mit klarem Fokus auf die moderne Aufmerksamkeitsökonomie. Seine browserbasierte, KI-native Plattform vereint Ideenfindung, Bearbeitung und Postproduktion in einem einzigen Workflow und ermöglicht es Kreativen und Unternehmen, innerhalb von Minuten statt Wochen kurze Videos in Kinoqualität zu produzieren.Higgsfield liefert schnelle, kontrollierbare und skalierbare Ergebnisse mit dem Anspruch, gleichzeitig die narrative Kontinuität und kulturelle Resonanz in den Bereichen Medien, Marketing und Markenkommunikation zu bewahren. Higgsfield ist in den USA, Europa und Asien tätig, unterhält seinen Hauptsitz im Silicon Valley und wird von hochkarätigen Investoren und erfahrenen Technologieexperten unterstützt, die Erfolgsgeschichten mit Produkten und Ergebnissen im Milliardenbereich vorweisen können.Um auf die steigende Nachfrage und die dafür nötige Skalierung vorbereitet zu sein, benötigte Higgsfield eine robuste, flexible Infrastruktur, die zudem den komplexen Anforderungen seiner dynamischen Workloads und der schnell wachsenden Anzahl an Nutzern gerecht werden musste.Die Basis für generative KI in großem MaßstabHiggsfield hatte bereits mit anderen GPU-Anbietern zusammengearbeitet, sah sich aber mit begrenzten Kapazitäten und dem Mangel an skalierbaren Orchestrierungsmöglichkeiten konfrontiert. Die generative Plattform ist auf die effiziente Ausführung groß angelegter KI-Modelle angewiesen. Das Team hatte daher hohe Anforderungen an die Infrastruktur. Das zentralen Prioritäten waren:Sofortiger Zugriff auf leistungsstarke H100-GPUs mit der Möglichkeit, die verfügbare Leistung abhängig von den jeweiligen Projektanforderungen nach oben oder unten zu korrigierenAutomatische Skalierung der GPU-Infrastruktur, um auch unvorhersehbare und umfangreiche generative KI-Workloads zu bewältigenManaged Kubernetes mit GPU-Worker-Nodes, Load Balancern und Cloud-Netzwerken für einfache Orchestrierung, automatisierte Skalierung und maximale StabilitätSchnelles Onboarding und intensiver Support für einen schnellen Übergang vom Testing zur BereitstellungTransparente und kalkulierbare Preisgestaltung mit effizienter und einfacher Vertragsabwicklung sowie PAYG- oder Commitment-ModellenVerfügbarkeit und Flexibilität auch für zukünftige ErweiterungenWarum sich die Infrastruktur von Gcore von anderen Anbietern unterscheidetHiggsfield wandte sich an Gcore, weil das Unternehmen ohne Vorlaufzeit eine große Anzahl von H100-GPUs benötigte, die sich flexibel nach Bedarf skalieren ließen. Gcore konnte die erforderlichen H100-GPUs ohne Verzögerung zur Verfügung stelle und verhalf Higgsfield so dazu, Lieferengpässe zu beseitigen und die engen Entwicklungsfristen einzuhalten.Die transparente Preisgestaltung ermöglichte Higgsfield eine bessere Budgetplanungund eine einfachere Kostenkontrolle, was für die kurzen Release-Zyklen des Unternehmens von entscheidender Bedeutung war. Außerdem schätzte Higgsfield das Engagement von Gcore für nachhaltiges Hardware-Design, die hohe Zuverlässigkeit und Verfügbarkeit sowie den rund um die Uhr erreichbaren DevOps-Engineering-Support.Darüber hinaus bot die Bereitstellung der Infrastruktur über den Gcore Sines 3-Cluster in Portugal die regionale Flexibilität und hohe Performance, die Higgsfield zur Unterstützung seiner Plattform benötigte.Ausschlaggebend für die Entscheidung von Higgsfield zu einer Zusammenarbeit mit Gcore war schließlich die Fähigkeit, Managed Kubernetes mit GPU-Worker-Nodes bereitzustellen. Das ermöglichte in Echtzeit eine dynamische Skalierung und flexible Anpassung der Rechenressourcen an den Bedarf der Nutzer. Geschwindigkeit und Flexibilität sind für den laufenden Betrieb von Higgsfield entscheidend: Das Unternehmen möchte Kooperationen mit Partnern schnell umsetzen und Kapazitäten nach Bedarf skalieren können. Das optimierte Serviceangebot, das effiziente Onboarding und der reaktionsschnelle Support von Gcore ermöglichten genau das.Die Kombination aus GPU-Skalierung, H100-Verfügbarkeit und Managed Kubernetes war für uns von immensem Wert. Gcore gab uns die Kontrolle und Flexibilität, die unser Engineering-Team brauchte, um flexibel und schnell zu agieren.– Alex Mashrabov, CEO, Higgsfield AISchneller, unkomplizierter Start mit dediziertem Engineering-SupportDas Team von Gcore leistete gezielten Engineering-Support und unterstützte Higgsfield dabei, seine Workloads im Rahmen einer einwöchigen Testphase zu testen. Nachdem sie sich auf diese Weise von der Performance überzeugt hatten, stellte Higgsfield schnell auf die vollständige Bereitstellung um.Der direkte Zugang zum Engineering-Team von Gcore machte die Einarbeitung reibungslos und effizient. Wir konnten schnell testen und validieren und dann ohne Probleme skalieren.– Anwar Omar, Lead Infrastructure Engineer, Higgsfield AISkalierbare Performance und eine starke Grundlage für WachstumObwohl sich das Projekt noch in der Anfangsphase befindet, ist Higgsfield bereits live und führt mit Gcore aktiv GPU-gestützte Workloads in der Produktion durch.Das sind einige der wichtigsten Ergebnissen bisher:Nahtlose Bereitstellung in einer Managed Kubernetes-Umgebung mit GPU-Worker-Nodes und automatischer SkalierungOn-Demand-Zugriff auf H100-GPUs für rechenintensive generative WorkloadsKubernetes-basierte Orchestrierung für effiziente Containerskalierung und optimierte RessourcennutzungSkalierbare Infrastruktur, die sich dem Bedarf flexibel anpasstEine starke Grundlage für zukünftiges Produktwachstum und globale SkalierungWie geht es weiter?Derzeit prüft Higgsfield die Möglichkeit, die Zusammenarbeit über das Modelltraining hinaus auf eine verteilte Inferenzinfrastruktur mit Everywhere AI auszuweiten.Die Produkt-Roadmap des Unternehmens sieht die schnelle Veröffentlichung neuer Features vor. Häufig geht damit für kurze Zeiträume ein erhöhter GPU-Bedarf einher, was eine flexible Infrastruktur unerlässlich macht. Das skalierbare On-Demand-Modell von Gcore unterstützt diesen Prozess ohne Überprovisionierung.Wir sind begeistert vom Potenzial unserer Partnerschaft mit Gcore. Das Team reagiert unglaublich schnell und die Infrastruktur passt hervorragend zu Higgsfield. Wir prüfen aktiv weitere Möglichkeiten – von Everywhere AI bis hin zu einer breiteren Skalierung. Und wir sind gespannt, wohin uns diese Zusammenarbeit noch führen wird.– Alex Mashrabov, CEO, Higgsfield AI

Leonardo.Ai ermöglicht mit den KI-Services von Gcore eine schnelle, globale Content-Produktion
Leonardo.Ai hilft kreativen Köpfen, ihre Ideen in Sekundenschnelle in beeindruckende KI-generierte Inhalte zu verwandeln. Das Unternehmen mit Hauptsitz in Australien, das mittlerweile zu Canva gehört, bietet Spieleentwicklern, Designern und Marketeers leistungsstarke Tools, mit denen sie Bilder, Videos und kreative Assets in Echtzeit erstellen und optimieren können.James Stewart, DevOps Engineering Manager bei Leonardo.Ai, betont, dass Geschwindigkeit für sein Team höchste Priorität hat. Ihr Leitmotiv lautet deshalb „Go fast“ – Ideen werden in kürzester Zeit zu Prototypen weiterentwickelt und auf den Markt gebracht. Doch eine derartige Geschwindigkeit im großen Maßstab zu ermöglichen, erfordert eine leistungsstarke GPU-Infrastruktur und fundierte Expertise bei der Orchestrierung.Schnelligkeit, Skalierbarkeit und Infrastruktur auch unter ZeitdruckDamit Kunden weltweit höchste KI-Geschwindigkeit geboten bekommen können, ist eine leistungsstarke GPU-Inferenzinfrastruktur on demand unverzichtbar. Schon frühzeitig erkannte Leonardo allerdings, dass die begrenzte Verfügbarkeit von GPUs und hohe Kosten dabei ein Hindernis darstellten.GPUs machen einen erheblichen Teil unserer Betriebskosten aus. Deshalb sind wettbewerbsfähige Preise und Verfügbarkeit für uns von zentraler Bedeutung.– James Stewart, DevOps Engineering Manager, Leonardo.AiAngesichts seiner ehrgeizigen Wachstumsziele benötigte Leonardo einen effizienten, flexiblen GPU-Anbieter, der die Pläne des Unternehmens in Hinblick auf Geschwindigkeit und Skalierbarkeit unterstützen könnte. Leonardo zog verschiedene KI-Anbieter in Betracht, von globalen Hyperscalern bis hin zu lokalen GPU-Diensten. Einige davon schienen vielversprechend, boten aber keine ausreichende Verfügbarkeit. Andere punkteten mit günstigen Preisen oder einfachem Zugang ohne langfristige Vertragsbindung, verfügten jedoch nicht über wichtige Funktionen wie private Netzwerke, Infrastructure-as-Code oder 24/7-Support.Günstige GPUs allein reichten nicht. Wir brauchten eine ausgereifte Plattform mit Terraform-Unterstützung, privatem Netzwerk und zuverlässigem Support. Sonst wären Bereitstellung und Wartung in dieser Größenordnung für unsere Entwickler sehr aufwendig geworden.– James Stewart, DevOps Engineering Manager, Leonardo.AiBei Gcore fanden sie schließlich, was sie suchten: solide GPU-Verfügbarkeit durch die Partnerschaft mit Northern Data, eine Cloud-Plattform mit vollem Funktionsumfang und einen wirklich hilfreichen technischen Support.Wir haben uns aufgrund der allgemeinen Plattformintegration, der Funktionen und des Supports für Gcore entschieden. Im Vergleich zu einigen weniger leistungsfähigen GPU-Anbietern, die wir genutzt haben, müssen sich unsere Entwickler bei Gcore dadurch nicht mit der manuellen Bereitstellung von Infrastruktur oder mit Performance-Problemen herumschlagen. Stattdessen können sie sich auf das konzentrieren, was sie am liebsten tun: entwickeln.– James Stewart, DevOps Engineering Manager, Leonardo.AiAuf der Suche nach einem flexiblen Anbieter, der Leonardos Anforderungen an Geschwindigkeit erfüllen kannLeonardo.Ai brauchte eine Infrastruktur, die weder Innovationen noch Dynamik behindert. Mit Gcore fand das Team eine schnelle, flexible und zuverlässige KI-Plattform, um mit der Entwicklungsgeschwindigkeit und den Zielen von Leonardo Schritt mitzuhalten. Für die Ausführung seiner KI-Inferenz entschied Leonardo sich für die Gcore GPU Cloud mit Bare-Metal-Hosting und sicherte sich damit Isolation, Leistungsfähigkeit und Flexibilität für seine KI-Workloads. Die anspruchsvollen Inferenz-Workloads laufen auf den NVIDIA H100- und A100-GPUs der neuesten Generation ohne Virtualisierungsaufwand. Dadurch liefern die Services zur Bild- und Videogenerierung schnelle, hochauflösende Ergebnisse – ohne Verzögerungen oder Ausfälle, selbst unter Spitzenlasten.Mit der On-Demand-Preisgestaltung kann Leonardo.Ai die GPU-Nutzung abhängig von Traffic, Produktzyklen oder Anforderungen an Modelltests skalieren. Es entstehen weder Over-Provisioning, noch unnötige Ausgaben. Leonardo erhält eine schlanke, reaktionsschnelle Konfiguration, die sich flexibel an das Wachstum des Unternehmens anpasst, sowie maßgeschneiderten Support, damit das Team die Infrastruktur optimal nutzen kann.Wir beanspruchen unsere Infrastruktur extrem, und Gcore bewältigt das mit Leichtigkeit. Die Kombination aus purer GPU-Leistung, Verfügbarkeit, schneller sowie einfacher Bereitstellung und flexibler Skalierung erlaubt es uns, so schnell zu agieren wie notwendig. Was Gcore aber vor allem auszeichnet, ist der praxisnahe und persönliche Support. Das Team versteht unsere Konfiguration vollkommen und hilft uns, sie für unsere spezifischen Bedürfnisse zu optimieren.– James Stewart, DevOps Engineering Manager, Leonardo.AiGenerative KI mit erstklassiger Infrastruktur in EchtzeitDie Partnerschaft mit Gcore unterstützt Leonardo, sein bekanntermaßen hohes Entwicklungstempo beizubehalten und seinen Nutzern kontinuierlich neue, innovative Features zur Verfügung zu stellen.Mit Gcore können wir GPU-Knoten sofort aktivieren und darauf vertrauen, dass sie zuverlässig und durchgängig funktionieren. Wir haben die Sicherheit, dass Gcore die notwendigen Kapazitäten bereitstellt, wann immer wir sie benötigen. Das ermöglicht uns, schnell und sicher neue, innovative Funktionen für unsere Kunden zu entwickeln, ohne uns sorgen zu müssen, ob wir die nötigen GPUs zur Verfügung haben, damit sie diese Funktionen überhaupt nutzen können.– James Stewart, DevOps Engineering Manager, Leonardo.AiDas Team verwendet jetzt Terraform und setzt GPUs nach Bedarf ein. Mit Container-Workflows bei der Bereitstellung der Suite von KI-Services, mit denen Gcore Leonardo.Ai unterstützt, wird das Team auch seinem „Go fast“-Anspruch mehr als gerecht.Globale KI-Kreativität vorantreibenDie Gcore GPU Cloud ist zu einem zentralen Bestandteil der Infrastruktur von Leonardo.Ai geworden. Durch die Auslagerung der komplexen Infrastruktur an Gcore kann sich das Team von Leonardo.Ai jetzt ganz auf seine Kunden und Innovationen konzentrieren.Die Partnerschaft mit Gcore gibt uns die Flexibilität und Leistungsfähigkeit für uneingeschränkte Innovationskraft. Wir können unsere KI-Workloads global skalieren und unseren Kunden die Möglichkeit eröffnen, ebenso innovativ zu bleiben.– James Stewart, DevOps Engineering Manager, Leonardo.AiSind Sie bereit, Ihre KI-Workloads global zu skalieren? Finden Sie heraus, wie die KI-Services von Gcore Ihre neuesten Apps und Features unterstützen können. Erfahren Sie mehr über GPU Cloud und Everywhere Inference, informieren Sie sich über die einfache Bereitstellung mit nur drei Klicks oder wenden Sie sich an unser KI-Team für eine persönliche Beratung.

Zukunftssichere DDoS-Abwehr: Die Partnerschaft zwischen dataforest und Gcore
In Zeiten zunehmender DDoS-Angriffe mit Bandbreiten von 1 Tbps und mehr stehen Unternehmen vor der Herausforderung, ihre Schutzmaßnahmen kontinuierlich zu verbessern. Der aktuelle Gcore Radar Report zeigt eindrucksvoll, dass die Bedrohungen täglich zunehmen und die Angriffe immer größer und häufiger werden. Für die dataforest GmbH, die auf die Abwehr großer und komplexer DDoS-Attacken spezialisiert ist, war die aktuelle Situation Anlass, die eigenen Kapazitäten auszubauen.Ausbau der Infrastruktur: Migration auf moderne TechnologienMitte 2023 begann dataforest mit der Migration auf ein neues Edge-Routing-Konzept und stellte die wichtigen Transit-Ports auf zukunftsweisende 400G-Technik um. Die Partnerschaft mit Gcore spielte hierbei eine entscheidende Rolle: Durch die Bereitstellung mehrerer 400 Gbit/s-Ports kann dataforest den hohen Bandbreitenanforderungen gerecht werden und gleichzeitig einen optimalen Traffic-Mix sowie höchste Redundanz und Ausfallsicherheit gewährleisten.Gcore ist für uns ein zuverlässiger Partner, auf den wir jederzeit zählen können. Durch die Bereitstellung von 400G-Ports und die exzellente Zusammenarbeit zwischen den Netzwerkabteilungen beider Unternehmen bleibt dataforest nicht nur autark in der Weiterentwicklung der eigenen Anti-DDoS-Lösung „zero-loss“, sondern bietet auch maßgeschneiderte Schutzlösungen für unterschiedlichste Kundenbedürfnisse.Tim Hochmann, Geschäftsführer, dataforestInnovation im DDoS-Schutz: „zero-loss“Mithilfe der modernen Infrastruktur von Gcore implementiert dataforest die innovative „zero-loss“-DDoS-Protection. Diese Technologie ermöglicht Kunden selbst unter extremen Belastungen einen unterbrechungsfreien Zugriff auf ihre Dienste. Basis hierfür ist ein leistungsstarkes Backbone mit einer Kapazität von mehreren Terabit pro Sekunde, das eine stabile und zuverlässige Grundlage für anspruchsvolle Anwendungen bietet.Effizienter Support: Flexibilität und schnelle ReaktionszeitenGcore überzeugt nicht nur mit technischer Stabilität, sondern auch mit einem hochqualitativen Support, der sich durch außergewöhnliche Flexibilität und schnelle Reaktionszeiten auszeichnet. Im Falle von Leistungseinbußen können durch rasche Analysen und gezielte Maßnahmen Netzwerkoptimierungen oft innerhalb weniger Minuten vorgenommen werden. Diese Agilität trägt entscheidend zur Stabilität und zur kontinuierlichen Anpassung an die Anforderungen dynamischer Szenarien bei.Kundenorientierung: Individuelle Lösungen für dataforestDie Fähigkeit von Gcore, auf individuelle Anforderungen einzugehen, war für dataforest ein weiterer zentraler Aspekt der Zusammenarbeit. So wurde speziell für dataforest ein dedizierter Point of Presence (PoP) auf dem Interxion-Campus in Frankfurt eingerichtet, der optimal auf die spezifischen Leistungsanforderungen abgestimmt ist. Trotz der technischen Komplexität verlief die Inbetriebnahme reibungslos, ohne Kompromisse bei Bandbreite, Flexibilität oder Effizienz. Tim Lauderbach, verantwortlich für das dataforest-Netzwerk, hebt hervor: „Durch die zentrale Lage unseres Edge-Routings auf demselben Campus konnten Kosten und Latenzen weiter reduziert werden. Unsere Kunden profitieren somit von noch besserem und günstigerem Premium-Traffic.“Technologische Synergien: Zusammenarbeit bei BGP FlowspecDie enge Zusammenarbeit zwischen Gcore und dataforest zeigte sich auch bei der erfolgreichen Implementierung von BGP Flowspec. Diese Technologie ermöglicht es, volumetrische DDoS-Attacken automatisiert innerhalb weniger Sekunden an den Netzgrenzen einzudämmen. Dank Gcores globalem Netzwerk von über 180 PoPs können Angriffe bereits an der Quelle begrenzt werden, was zusätzlichen Schutz für beide Netzwerke schafft.Über dataforestDie dataforest GmbH ist ein führender Anbieter von Hostinglösungen mit Fokus auf virtuelle und dedizierte Server, Netzwerkservices sowie umfassenden DDoS-Schutz. Unter den bekannten Marken Avoro und PHP-Friends bietet das Unternehmen flexible Hostinglösungen sowie individuelle Beratung und Dienstleistungen an.Über GcoreGcore ist ein globaler Anbieter von Netzwerklösungen und CDN-Diensten. Mit innovativer Technologie und moderner Infrastruktur, verteilt über sechs Kontinente, gewährleistet Gcore zuverlässige und leistungsstarke Netzwerklösungen für Unternehmen weltweit. Das Netzwerk besteht aus über 180 PoPs auf der ganzen Welt und verfügt über eine Gesamtkapazität von mehr als 200 Tbps.
Kunden, die Gcore vertrauen, um ihr Geschäft und ihre Infrastruktur zu betreiben.
Cloud-Services
Virtual Data Center mit mehr als 50+ Cloud-Diensten.
Content Delivery Network
Next-gen-CDN für die weltweite Bereitstellung von dynamischem und statischem Inhalt.
DDoS-Schutz
Zuverlässiger Schutz der Infrastruktur gegen L3-, L4- und L7-DDoS-Angriffe.
