Beschleunigen Sie Ihre Websites, Anwendungen und Downloads
Low Latency weltweit
Mit dem Gcore CDN können Ihre Benutzerinnen und Benutzer auf Ihre Anwendung so zugreifen, als ob sich das Hosting immer am selben Ort wie die Anwendung selbst befinden würde.
Dynamische Inhaltsbeschleunigung
Unsere Beschleunigung dynamischer Inhalte sorgt für flüssigere und reaktionsschnellere Webanwendungen und beschleunigt die Bereitstellung generierter Inhalte.
Hervorragende Verfügbarkeit
Gcore CDN ist in der Lage, den Server vor Überlastung zu schützen, wenn unerwartete Verkehrsspitzen auftreten oder Denial-of-Service (DDoS)-Angriffe durchgeführt werden.
Erweiterte Funktionen
IPv4 / IPv6
Unsere gesamte Infrastruktur unterstützt sowohl IPv4 als auch IPv6-Protokolle

Gcore Globales Netzwerk
Ihre Netzwerke sind der Kern der Endbenutzererfahrungen und der Unterstützung von Geschäftsinitiativen. Oft kann jedoch die Leistung Ihres Netzwerkverkehrs aufgrund von Netzwerken außerhalb Ihrer Kontrolle unberechenbar sein.
210+ PoPs
weltweit
200+ Tbps
Netzwerkkapazität
30 ms
durchschnittliche weltweite Latenz
85%
durchschnittliche Cache-Trefferquote
2,000,000
Anfragen pro Sekunde
14 Tbps
tägliche Spitzenbandbreite
Anwendungen
Web-Anwendungen & -E-Commerce
Verbesserte Website-GeschwindigkeitBeschleunigung der dynamisch generierten AssetsBildkomprimierung und -umwandlung im laufenden BetriebUnmittelbare Wiedergabe Ihres ProduktvideosVerfügbarkeit bei Verkehrsspitzen und DDoS-AttackenTLS-Verschlüsselung und ZugangskontrolleGames & Software Assets
200 Tbps der globalen NetzwerkkapazitätContent prefetching (CDN-Vorbaruf)Optimierung der Bereitstellung großer DatenvolumenCache-Sharding für bessere LatenzzeitenAbschirmung des HerkunftsserversVideo Streaming
200 Tbps der globalen NetzwerkkapazitätReduzierte TTFB für sofortige WiedergabeBessere Konnektivität für Stream-IntegritätMicro-segmented Caching Mikrosegmenten für Live-VideosRAM Caching für Live-VideosÖffentlichen und eingeschränkten ZugangskontrolleAbschirmung des Herkunftsservers
Optimiert für Video-Streaming
Gcore CDN ist eine gut optimierte Lösung für Video-on-Demand (VOD) und Live-Streaming.
Image Optimization as a Service
Image Stack von Gcore ist ein cloud-basiertes Bildoptimierungstool, das die Arbeitsabläufe von Webentwicklern vereinfacht. Durch geringfügige Änderungen in den URL-Abfragezeichenfolgen und Einstellungen der Website können sowohl die Kosten für Bandbreite gesenkt, als auch die Benutzeraktzeptanz erhöht werden.
Konvertierung zu WebP, AVIF
Die Komprimierung von Bildern im WebP- oder AVIF-Format kann bis zu 85 % der Dateigröße ohne Qualitätsverlust reduzieren.
Kontrolle der Bildqualität
Legen Sie die Qualitätsstufe für Ihre Website-Bilder fest und steuern Sie so die Ladegeschwindigkeit der Website und den Umfang des zu übertragenden CDN-Datenverkehrs.
Größenanpassung der Images
Es ermöglicht Ihnen, die Höhe, Breite und Skalierung Ihres Originalbildes durch Hinzufügen einiger weniger Abfragezeichenfolgen zu reduzieren.
Zuschneiden von Images
Es ermöglicht Ihnen, den über die festgelegten Parameter überstehenden Bildbereich zu verkleinern und den Nutzern zur Verfügung zu stellen.
Erweiterte API und DevOps-Fähigkeit
Gcore CDN wird die Automatisierung Ihrer Infrastruktur ergänzen und optimieren.
Durch die erweiterte API können Sie von unserem CDN profitieren, ohne Ihren regulären Betrieb zu beeinträchtigen.
Mehr erfahren über CDN → { "cname": "cdn.example.com","originGroup": 132,"origin": "example.com","secondaryHostnames": ["first.example.com","second.example.com"],"le_issue": true,"description": "My resource" } 
Eingebaute Websicherheitsmechanismen
- SSL / TLS-Verschlüsselung
- Erweiterte Zugriffsregeln
- DDoS-Schutz (L3, L4, L7)
- Web Application Firewall
Die Delegation Ihrer DNS-Zone an unsere zuverlässigen Nameserver erhöht die Effizienz des CDNs und schützt statische und dynamische Inhalte gegen DDoS-Angriffe auf der Netzwerk- (L3) und Transportebene (L4).
Erfahren Sie mehr →Aktuelle FallstudienMehr Fallstudien

So skalierte ProSieben mit Gcore „Germany’s Next Topmodel TOPSHOT” für KI-Porträts in Echtzeit
Zur Feier der 20. Staffel von „Germany’s Next Topmodel“ (GNTM) präsentierte das Marketingteam von ProSieben „GNTM TOPSHOT“ – ein KI-gestütztes Feature in der Joyn-App, das es Nutzern erlaubt, ihre eigenen Fotos sofort in Porträts zu verwandeln, die denen aus der Show in nichts nachstehen.Die Herausforderungen, um mit der Dimension des multinationalen TV-Erfolges mitzuhalten, waren groß: massive Primetime-Spitzen bewältigen, Ergebnisse immer und überall in Echtzeit liefern und die strikte Einhaltung der EU-Datenschutzbestimmungen gewährleisten. Um diese Herausforderungen zu bewältigen, entschied sich ProSieben für Gcore Everywhere AI.Wir brauchten eine Lösung, die sich nach Bedarf skalieren lässt, in Sekundenschnelle liefert und Daten lokal speichert. Mit der Infrastruktur von Gcore konnten wir eine kreative Idee verwirklichen, ohne die User Experience zu beeinträchtigen.– Simon Hawe, Technischer Leiter, JoynDie Herausforderung: Kreativität in Echtzeit auf TV-LevelTOPSHOT musste fünf strenge und nicht verhandelbare Anforderungen erfüllen:Spitzenauslastung zur Primetime: Vor, während und nach der Live-Ausstrahlung in Deutschland, Österreich und der Schweiz stieg die Nutzung sprunghaft an.Extrem niedrige Latenz: Die Fans erwarteten ihr Ergebnis innerhalb von 5 bis 10 Sekunden pro Bild, vom Upload ihres Fotos bis zum fertig generierten Porträt.Privacy by Design: Joyn löscht alle Fotos sofort, um Nutzerdaten zu schützen. Caching und Speicherung waren keine Optionen. Dadurch musste jede Anfrage von Grund auf neu verarbeitet werden.Hohe Wiedergabetreue: Jedes Porträt erforderte einen etwa 100-stufigen Workflow für Segmentierung, Ausleuchtung, die Beibehaltung von Teint und Pose sowie die Bildkomposition, um der charakteristischen Ästhetik von GNTM zu entsprechen.Reibungslose User Experience: Um das Feature zu nutzen, sollte keine Anmeldung erforderlich sein. Die Bildgenerierung musste „einfach funktionieren“ – auch über mobile Netze.Aus Fans werden Models – jederzeit und überallProSieben benötigte eine Inferenzplattform, die skalierbar, datenschutzkonform und einfach zu integrieren war. Gcore Everywhere AI lieferte genau das.Ein Endpunkt, nächstgelegener Knoten: Smart Routing leitete jede Anfrage automatisch an den nächstgelegenen GPU-Endpunkt weiter, um Jitter und Wartezeiten auf ein Minimum zu reduzieren.Automatische Skalierung von GPUs: Die serverlose Orchestrierung korrigierte die GPU-Kapazität in Echtzeit nach oben oder unten und bewältigte so auch unvorhersehbare Spitzenlasten.EU-konforme Bereitstellungen: Die Unterstützung für eine hybride Infrastruktur (on premise, Gcore Cloud, Public Cloud) ermöglichte ProSieben volle Flexibilität bei der Datenresidenz.Optimiert für Bild-Workloads: Everywhere AI führte die komplexen Prozesse von TOPSHOT auf NVIDIA H100-, A100- und L40S-GPUs aus – die idealen Prozessoren für generative Bildmodelle.Unsere größte Herausforderung war es, visuelle Wiedergabetreue mit Echtzeit-Responses zu kombinieren. Mit dem Smart Routing und der automatischen Skalierung von Gcore wurde genau das in Primetime-Größenordnung möglich.– Benjamin Risom, Chief Product Officer, JoynDiese Architektur bot ProSieben folgende Vorteile:Der gesamte Datenverkehr wurde über einen einzigen Inferenz-Endpunkt geleitet, zusätzlich unterstützt durch einen eigenen Load Balancer.Porträts konnten innerhalb von weniger als 10 Sekunden generiert werden – selbst bei hohen Lasten während der Ausstrahlung der Show.Die strengen Datenschutzversprechen wurden eingehalten: keine Anmeldung erforderlich, keine Speicherung von Eingaben oder Ausgaben.Das neue Feature konnte nahtlos in die User Experience innerhalb der Joyn-App integriert werden.Im April 2025 ging TOPSHOT mit fünf Porträtszenen live. Wenige Wochen später kamen drei weitere hinzu.Da wir wussten, dass die Infrastruktur mit uns wachsen würde, konnten wir uns ganz auf die kreative Arbeit konzentrieren. Das hat es uns ermöglicht, unseren Zuschauern etwas wirklich Besonderes zu bieten.– Sebastian v. Wyschetzki, Creative Lead, Seven.One Entertainment GroupEchtzeit-Interaktion auf Primetime-LevelDer Launch von TOPSHOT fiel mit einer Staffel zusammen, die für sich genommen bereits für kulturelles Aufsehen sorgte.Das Finale der 20. Staffel von GNTM am 19. Juni 2025 wurde von 3,87 Millionen Zuschauern gesehen und erreichte einen Marktanteil von 22,4 % in der Zielgruppe der 14- bis 49-Jährigen.Im April 2025 verzeichnete Joyn 10 Millionen Zuschauer und damit +80 % im Vergleich zum Vorjahr. Im ersten Quartal 2025 stieg die Sehdauer im Vergleich zum Vorjahr um 40 %.TV-Total-Moderator Sebastian Pufpaff stellte TOPSHOT live in seiner Sendung vor, lobte die Optik und löste damit einen organischen Anstieg in der Nutzung aus.Die Fachpresse betonte die „skalierbare Gcore-Infrastruktur“ als Grundlage des Features.Die Plattform von Gcore erlaubte uns regionale Performance und bot Kontrolle über die Datenschutzanforderungen und GPU-Skalierung, ohne dass wir selbst eine Infrastruktur aufbauen und verwalten mussten.– Paolo Garri, Infrastrukturarchitekt, JoynWie geht es weiter?Um auf dem Erfolg von TOPSHOT aufzubauen, experimentiert ProSieben mit möglichen neuen KI-Erlebnissen für Fans – darunter Videoporträts, Echtzeitfilter oder stilisierte Animationen. Die flexible Infrastruktur von Gcore ermöglicht es dem Team, Ideen zu testen, ohne die Architektur umstellen zu müssen.Der Erfolg von TOPSHOT hat uns gezeigt, was möglich ist. Jetzt fragen wir uns: Was können wir damit noch alles machen?– Jutta Meyer, Executive VP Marketing & Creation, Seven.One Entertainment Group

Higgsfield AI startet Partnerschaft mit Gcore für skalierbare KI-Infrastruktur und Managed Kubernetes-Support
Das 2023 gegründete Unternehmen Higgsfield entwickelt eine Video-Reasoning-Engine mit klarem Fokus auf die moderne Aufmerksamkeitsökonomie. Seine browserbasierte, KI-native Plattform vereint Ideenfindung, Bearbeitung und Postproduktion in einem einzigen Workflow und ermöglicht es Kreativen und Unternehmen, innerhalb von Minuten statt Wochen kurze Videos in Kinoqualität zu produzieren.Higgsfield liefert schnelle, kontrollierbare und skalierbare Ergebnisse mit dem Anspruch, gleichzeitig die narrative Kontinuität und kulturelle Resonanz in den Bereichen Medien, Marketing und Markenkommunikation zu bewahren. Higgsfield ist in den USA, Europa und Asien tätig, unterhält seinen Hauptsitz im Silicon Valley und wird von hochkarätigen Investoren und erfahrenen Technologieexperten unterstützt, die Erfolgsgeschichten mit Produkten und Ergebnissen im Milliardenbereich vorweisen können.Um auf die steigende Nachfrage und die dafür nötige Skalierung vorbereitet zu sein, benötigte Higgsfield eine robuste, flexible Infrastruktur, die zudem den komplexen Anforderungen seiner dynamischen Workloads und der schnell wachsenden Anzahl an Nutzern gerecht werden musste.Die Basis für generative KI in großem MaßstabHiggsfield hatte bereits mit anderen GPU-Anbietern zusammengearbeitet, sah sich aber mit begrenzten Kapazitäten und dem Mangel an skalierbaren Orchestrierungsmöglichkeiten konfrontiert. Die generative Plattform ist auf die effiziente Ausführung groß angelegter KI-Modelle angewiesen. Das Team hatte daher hohe Anforderungen an die Infrastruktur. Das zentralen Prioritäten waren:Sofortiger Zugriff auf leistungsstarke H100-GPUs mit der Möglichkeit, die verfügbare Leistung abhängig von den jeweiligen Projektanforderungen nach oben oder unten zu korrigierenAutomatische Skalierung der GPU-Infrastruktur, um auch unvorhersehbare und umfangreiche generative KI-Workloads zu bewältigenManaged Kubernetes mit GPU-Worker-Nodes, Load Balancern und Cloud-Netzwerken für einfache Orchestrierung, automatisierte Skalierung und maximale StabilitätSchnelles Onboarding und intensiver Support für einen schnellen Übergang vom Testing zur BereitstellungTransparente und kalkulierbare Preisgestaltung mit effizienter und einfacher Vertragsabwicklung sowie PAYG- oder Commitment-ModellenVerfügbarkeit und Flexibilität auch für zukünftige ErweiterungenWarum sich die Infrastruktur von Gcore von anderen Anbietern unterscheidetHiggsfield wandte sich an Gcore, weil das Unternehmen ohne Vorlaufzeit eine große Anzahl von H100-GPUs benötigte, die sich flexibel nach Bedarf skalieren ließen. Gcore konnte die erforderlichen H100-GPUs ohne Verzögerung zur Verfügung stelle und verhalf Higgsfield so dazu, Lieferengpässe zu beseitigen und die engen Entwicklungsfristen einzuhalten.Die transparente Preisgestaltung ermöglichte Higgsfield eine bessere Budgetplanungund eine einfachere Kostenkontrolle, was für die kurzen Release-Zyklen des Unternehmens von entscheidender Bedeutung war. Außerdem schätzte Higgsfield das Engagement von Gcore für nachhaltiges Hardware-Design, die hohe Zuverlässigkeit und Verfügbarkeit sowie den rund um die Uhr erreichbaren DevOps-Engineering-Support.Darüber hinaus bot die Bereitstellung der Infrastruktur über den Gcore Sines 3-Cluster in Portugal die regionale Flexibilität und hohe Performance, die Higgsfield zur Unterstützung seiner Plattform benötigte.Ausschlaggebend für die Entscheidung von Higgsfield zu einer Zusammenarbeit mit Gcore war schließlich die Fähigkeit, Managed Kubernetes mit GPU-Worker-Nodes bereitzustellen. Das ermöglichte in Echtzeit eine dynamische Skalierung und flexible Anpassung der Rechenressourcen an den Bedarf der Nutzer. Geschwindigkeit und Flexibilität sind für den laufenden Betrieb von Higgsfield entscheidend: Das Unternehmen möchte Kooperationen mit Partnern schnell umsetzen und Kapazitäten nach Bedarf skalieren können. Das optimierte Serviceangebot, das effiziente Onboarding und der reaktionsschnelle Support von Gcore ermöglichten genau das.Die Kombination aus GPU-Skalierung, H100-Verfügbarkeit und Managed Kubernetes war für uns von immensem Wert. Gcore gab uns die Kontrolle und Flexibilität, die unser Engineering-Team brauchte, um flexibel und schnell zu agieren.– Alex Mashrabov, CEO, Higgsfield AISchneller, unkomplizierter Start mit dediziertem Engineering-SupportDas Team von Gcore leistete gezielten Engineering-Support und unterstützte Higgsfield dabei, seine Workloads im Rahmen einer einwöchigen Testphase zu testen. Nachdem sie sich auf diese Weise von der Performance überzeugt hatten, stellte Higgsfield schnell auf die vollständige Bereitstellung um.Der direkte Zugang zum Engineering-Team von Gcore machte die Einarbeitung reibungslos und effizient. Wir konnten schnell testen und validieren und dann ohne Probleme skalieren.– Anwar Omar, Lead Infrastructure Engineer, Higgsfield AISkalierbare Performance und eine starke Grundlage für WachstumObwohl sich das Projekt noch in der Anfangsphase befindet, ist Higgsfield bereits live und führt mit Gcore aktiv GPU-gestützte Workloads in der Produktion durch.Das sind einige der wichtigsten Ergebnissen bisher:Nahtlose Bereitstellung in einer Managed Kubernetes-Umgebung mit GPU-Worker-Nodes und automatischer SkalierungOn-Demand-Zugriff auf H100-GPUs für rechenintensive generative WorkloadsKubernetes-basierte Orchestrierung für effiziente Containerskalierung und optimierte RessourcennutzungSkalierbare Infrastruktur, die sich dem Bedarf flexibel anpasstEine starke Grundlage für zukünftiges Produktwachstum und globale SkalierungWie geht es weiter?Derzeit prüft Higgsfield die Möglichkeit, die Zusammenarbeit über das Modelltraining hinaus auf eine verteilte Inferenzinfrastruktur mit Everywhere AI auszuweiten.Die Produkt-Roadmap des Unternehmens sieht die schnelle Veröffentlichung neuer Features vor. Häufig geht damit für kurze Zeiträume ein erhöhter GPU-Bedarf einher, was eine flexible Infrastruktur unerlässlich macht. Das skalierbare On-Demand-Modell von Gcore unterstützt diesen Prozess ohne Überprovisionierung.Wir sind begeistert vom Potenzial unserer Partnerschaft mit Gcore. Das Team reagiert unglaublich schnell und die Infrastruktur passt hervorragend zu Higgsfield. Wir prüfen aktiv weitere Möglichkeiten – von Everywhere AI bis hin zu einer breiteren Skalierung. Und wir sind gespannt, wohin uns diese Zusammenarbeit noch führen wird.– Alex Mashrabov, CEO, Higgsfield AI

Leonardo.Ai ermöglicht mit den KI-Services von Gcore eine schnelle, globale Content-Produktion
Leonardo.Ai hilft kreativen Köpfen, ihre Ideen in Sekundenschnelle in beeindruckende KI-generierte Inhalte zu verwandeln. Das Unternehmen mit Hauptsitz in Australien, das mittlerweile zu Canva gehört, bietet Spieleentwicklern, Designern und Marketeers leistungsstarke Tools, mit denen sie Bilder, Videos und kreative Assets in Echtzeit erstellen und optimieren können.James Stewart, DevOps Engineering Manager bei Leonardo.Ai, betont, dass Geschwindigkeit für sein Team höchste Priorität hat. Ihr Leitmotiv lautet deshalb „Go fast“ – Ideen werden in kürzester Zeit zu Prototypen weiterentwickelt und auf den Markt gebracht. Doch eine derartige Geschwindigkeit im großen Maßstab zu ermöglichen, erfordert eine leistungsstarke GPU-Infrastruktur und fundierte Expertise bei der Orchestrierung.Schnelligkeit, Skalierbarkeit und Infrastruktur auch unter ZeitdruckDamit Kunden weltweit höchste KI-Geschwindigkeit geboten bekommen können, ist eine leistungsstarke GPU-Inferenzinfrastruktur on demand unverzichtbar. Schon frühzeitig erkannte Leonardo allerdings, dass die begrenzte Verfügbarkeit von GPUs und hohe Kosten dabei ein Hindernis darstellten.GPUs machen einen erheblichen Teil unserer Betriebskosten aus. Deshalb sind wettbewerbsfähige Preise und Verfügbarkeit für uns von zentraler Bedeutung.– James Stewart, DevOps Engineering Manager, Leonardo.AiAngesichts seiner ehrgeizigen Wachstumsziele benötigte Leonardo einen effizienten, flexiblen GPU-Anbieter, der die Pläne des Unternehmens in Hinblick auf Geschwindigkeit und Skalierbarkeit unterstützen könnte. Leonardo zog verschiedene KI-Anbieter in Betracht, von globalen Hyperscalern bis hin zu lokalen GPU-Diensten. Einige davon schienen vielversprechend, boten aber keine ausreichende Verfügbarkeit. Andere punkteten mit günstigen Preisen oder einfachem Zugang ohne langfristige Vertragsbindung, verfügten jedoch nicht über wichtige Funktionen wie private Netzwerke, Infrastructure-as-Code oder 24/7-Support.Günstige GPUs allein reichten nicht. Wir brauchten eine ausgereifte Plattform mit Terraform-Unterstützung, privatem Netzwerk und zuverlässigem Support. Sonst wären Bereitstellung und Wartung in dieser Größenordnung für unsere Entwickler sehr aufwendig geworden.– James Stewart, DevOps Engineering Manager, Leonardo.AiBei Gcore fanden sie schließlich, was sie suchten: solide GPU-Verfügbarkeit durch die Partnerschaft mit Northern Data, eine Cloud-Plattform mit vollem Funktionsumfang und einen wirklich hilfreichen technischen Support.Wir haben uns aufgrund der allgemeinen Plattformintegration, der Funktionen und des Supports für Gcore entschieden. Im Vergleich zu einigen weniger leistungsfähigen GPU-Anbietern, die wir genutzt haben, müssen sich unsere Entwickler bei Gcore dadurch nicht mit der manuellen Bereitstellung von Infrastruktur oder mit Performance-Problemen herumschlagen. Stattdessen können sie sich auf das konzentrieren, was sie am liebsten tun: entwickeln.– James Stewart, DevOps Engineering Manager, Leonardo.AiAuf der Suche nach einem flexiblen Anbieter, der Leonardos Anforderungen an Geschwindigkeit erfüllen kannLeonardo.Ai brauchte eine Infrastruktur, die weder Innovationen noch Dynamik behindert. Mit Gcore fand das Team eine schnelle, flexible und zuverlässige KI-Plattform, um mit der Entwicklungsgeschwindigkeit und den Zielen von Leonardo Schritt mitzuhalten. Für die Ausführung seiner KI-Inferenz entschied Leonardo sich für die Gcore GPU Cloud mit Bare-Metal-Hosting und sicherte sich damit Isolation, Leistungsfähigkeit und Flexibilität für seine KI-Workloads. Die anspruchsvollen Inferenz-Workloads laufen auf den NVIDIA H100- und A100-GPUs der neuesten Generation ohne Virtualisierungsaufwand. Dadurch liefern die Services zur Bild- und Videogenerierung schnelle, hochauflösende Ergebnisse – ohne Verzögerungen oder Ausfälle, selbst unter Spitzenlasten.Mit der On-Demand-Preisgestaltung kann Leonardo.Ai die GPU-Nutzung abhängig von Traffic, Produktzyklen oder Anforderungen an Modelltests skalieren. Es entstehen weder Over-Provisioning, noch unnötige Ausgaben. Leonardo erhält eine schlanke, reaktionsschnelle Konfiguration, die sich flexibel an das Wachstum des Unternehmens anpasst, sowie maßgeschneiderten Support, damit das Team die Infrastruktur optimal nutzen kann.Wir beanspruchen unsere Infrastruktur extrem, und Gcore bewältigt das mit Leichtigkeit. Die Kombination aus purer GPU-Leistung, Verfügbarkeit, schneller sowie einfacher Bereitstellung und flexibler Skalierung erlaubt es uns, so schnell zu agieren wie notwendig. Was Gcore aber vor allem auszeichnet, ist der praxisnahe und persönliche Support. Das Team versteht unsere Konfiguration vollkommen und hilft uns, sie für unsere spezifischen Bedürfnisse zu optimieren.– James Stewart, DevOps Engineering Manager, Leonardo.AiGenerative KI mit erstklassiger Infrastruktur in EchtzeitDie Partnerschaft mit Gcore unterstützt Leonardo, sein bekanntermaßen hohes Entwicklungstempo beizubehalten und seinen Nutzern kontinuierlich neue, innovative Features zur Verfügung zu stellen.Mit Gcore können wir GPU-Knoten sofort aktivieren und darauf vertrauen, dass sie zuverlässig und durchgängig funktionieren. Wir haben die Sicherheit, dass Gcore die notwendigen Kapazitäten bereitstellt, wann immer wir sie benötigen. Das ermöglicht uns, schnell und sicher neue, innovative Funktionen für unsere Kunden zu entwickeln, ohne uns sorgen zu müssen, ob wir die nötigen GPUs zur Verfügung haben, damit sie diese Funktionen überhaupt nutzen können.– James Stewart, DevOps Engineering Manager, Leonardo.AiDas Team verwendet jetzt Terraform und setzt GPUs nach Bedarf ein. Mit Container-Workflows bei der Bereitstellung der Suite von KI-Services, mit denen Gcore Leonardo.Ai unterstützt, wird das Team auch seinem „Go fast“-Anspruch mehr als gerecht.Globale KI-Kreativität vorantreibenDie Gcore GPU Cloud ist zu einem zentralen Bestandteil der Infrastruktur von Leonardo.Ai geworden. Durch die Auslagerung der komplexen Infrastruktur an Gcore kann sich das Team von Leonardo.Ai jetzt ganz auf seine Kunden und Innovationen konzentrieren.Die Partnerschaft mit Gcore gibt uns die Flexibilität und Leistungsfähigkeit für uneingeschränkte Innovationskraft. Wir können unsere KI-Workloads global skalieren und unseren Kunden die Möglichkeit eröffnen, ebenso innovativ zu bleiben.– James Stewart, DevOps Engineering Manager, Leonardo.AiSind Sie bereit, Ihre KI-Workloads global zu skalieren? Finden Sie heraus, wie die KI-Services von Gcore Ihre neuesten Apps und Features unterstützen können. Erfahren Sie mehr über GPU Cloud und Everywhere Inference, informieren Sie sich über die einfache Bereitstellung mit nur drei Klicks oder wenden Sie sich an unser KI-Team für eine persönliche Beratung.

Zukunftssichere DDoS-Abwehr: Die Partnerschaft zwischen dataforest und Gcore
In Zeiten zunehmender DDoS-Angriffe mit Bandbreiten von 1 Tbps und mehr stehen Unternehmen vor der Herausforderung, ihre Schutzmaßnahmen kontinuierlich zu verbessern. Der aktuelle Gcore Radar Report zeigt eindrucksvoll, dass die Bedrohungen täglich zunehmen und die Angriffe immer größer und häufiger werden. Für die dataforest GmbH, die auf die Abwehr großer und komplexer DDoS-Attacken spezialisiert ist, war die aktuelle Situation Anlass, die eigenen Kapazitäten auszubauen.Ausbau der Infrastruktur: Migration auf moderne TechnologienMitte 2023 begann dataforest mit der Migration auf ein neues Edge-Routing-Konzept und stellte die wichtigen Transit-Ports auf zukunftsweisende 400G-Technik um. Die Partnerschaft mit Gcore spielte hierbei eine entscheidende Rolle: Durch die Bereitstellung mehrerer 400 Gbit/s-Ports kann dataforest den hohen Bandbreitenanforderungen gerecht werden und gleichzeitig einen optimalen Traffic-Mix sowie höchste Redundanz und Ausfallsicherheit gewährleisten.Gcore ist für uns ein zuverlässiger Partner, auf den wir jederzeit zählen können. Durch die Bereitstellung von 400G-Ports und die exzellente Zusammenarbeit zwischen den Netzwerkabteilungen beider Unternehmen bleibt dataforest nicht nur autark in der Weiterentwicklung der eigenen Anti-DDoS-Lösung „zero-loss“, sondern bietet auch maßgeschneiderte Schutzlösungen für unterschiedlichste Kundenbedürfnisse.Tim Hochmann, Geschäftsführer, dataforestInnovation im DDoS-Schutz: „zero-loss“Mithilfe der modernen Infrastruktur von Gcore implementiert dataforest die innovative „zero-loss“-DDoS-Protection. Diese Technologie ermöglicht Kunden selbst unter extremen Belastungen einen unterbrechungsfreien Zugriff auf ihre Dienste. Basis hierfür ist ein leistungsstarkes Backbone mit einer Kapazität von mehreren Terabit pro Sekunde, das eine stabile und zuverlässige Grundlage für anspruchsvolle Anwendungen bietet.Effizienter Support: Flexibilität und schnelle ReaktionszeitenGcore überzeugt nicht nur mit technischer Stabilität, sondern auch mit einem hochqualitativen Support, der sich durch außergewöhnliche Flexibilität und schnelle Reaktionszeiten auszeichnet. Im Falle von Leistungseinbußen können durch rasche Analysen und gezielte Maßnahmen Netzwerkoptimierungen oft innerhalb weniger Minuten vorgenommen werden. Diese Agilität trägt entscheidend zur Stabilität und zur kontinuierlichen Anpassung an die Anforderungen dynamischer Szenarien bei.Kundenorientierung: Individuelle Lösungen für dataforestDie Fähigkeit von Gcore, auf individuelle Anforderungen einzugehen, war für dataforest ein weiterer zentraler Aspekt der Zusammenarbeit. So wurde speziell für dataforest ein dedizierter Point of Presence (PoP) auf dem Interxion-Campus in Frankfurt eingerichtet, der optimal auf die spezifischen Leistungsanforderungen abgestimmt ist. Trotz der technischen Komplexität verlief die Inbetriebnahme reibungslos, ohne Kompromisse bei Bandbreite, Flexibilität oder Effizienz. Tim Lauderbach, verantwortlich für das dataforest-Netzwerk, hebt hervor: „Durch die zentrale Lage unseres Edge-Routings auf demselben Campus konnten Kosten und Latenzen weiter reduziert werden. Unsere Kunden profitieren somit von noch besserem und günstigerem Premium-Traffic.“Technologische Synergien: Zusammenarbeit bei BGP FlowspecDie enge Zusammenarbeit zwischen Gcore und dataforest zeigte sich auch bei der erfolgreichen Implementierung von BGP Flowspec. Diese Technologie ermöglicht es, volumetrische DDoS-Attacken automatisiert innerhalb weniger Sekunden an den Netzgrenzen einzudämmen. Dank Gcores globalem Netzwerk von über 180 PoPs können Angriffe bereits an der Quelle begrenzt werden, was zusätzlichen Schutz für beide Netzwerke schafft.Über dataforestDie dataforest GmbH ist ein führender Anbieter von Hostinglösungen mit Fokus auf virtuelle und dedizierte Server, Netzwerkservices sowie umfassenden DDoS-Schutz. Unter den bekannten Marken Avoro und PHP-Friends bietet das Unternehmen flexible Hostinglösungen sowie individuelle Beratung und Dienstleistungen an.Über GcoreGcore ist ein globaler Anbieter von Netzwerklösungen und CDN-Diensten. Mit innovativer Technologie und moderner Infrastruktur, verteilt über sechs Kontinente, gewährleistet Gcore zuverlässige und leistungsstarke Netzwerklösungen für Unternehmen weltweit. Das Netzwerk besteht aus über 180 PoPs auf der ganzen Welt und verfügt über eine Gesamtkapazität von mehr als 200 Tbps.
Kunden, die Gcore vertrauen
Testimonials & Erfolgsgeschichten
Das Team von Gcore versteht unsere Bedürfnisse und antwortet schnell auf unsere Anfragen. Die gebotene Infrastruktur entspricht den höchsten internationalen Standards.
Terry Kim
Die Geschwindigkeit, Bequemlichkeit und Qualität der bereitgestellten Dienste sind die drei Hauptmerkmale, die wir in unserem Partner Gcore gefunden haben.
Tomislav Gojević
Wir haben World of Tanks mit Gcore-Support weiterentwickelt, Herausforderungen gemeistert und gemeinsam neue Höhen erreicht. Glauben Sie mir, es dauert Jahre, um eine immer verfügbare Infrastruktur aufzubauen, die über eine Million PCCU bewältigen kann.
Victor Kislyi
