KI-Infrastruktur als Service
Zum schnellen Aufbau einer KI-Infrastruktur vereinen wir Graphcore IPUs und Gcore Cloud-Dienste unter einer einheitlichen Benutzeroberfläche und API für schnelleres ML.
Die Lösung ist schnell einsatzbereit, spart Rechenkosten und lässt sich bei Bedarf unkompliziert auf umfangreichere IPU Rechenleistungen skalieren.
Die Graphcore IPU Cloud-Dienste sind ab sofort als kostenlose Testversion und mit einer Reihe von Tarifoptionen verfügbar, die es Entwicklern auf der ganzen Welt erleichtern, Fortschritte im Bereich des maschinellen Lernens zu erzielen.

Warum Graphcore IPUs?
Enorme Leistungssteigerung
Weltweit führende Leistung für Natural Language Processing, Computer Vision und Graph Networks.
Einzigartige Architektur für differenzierte Ergebnisse. Niedrige Latenzzeit-Inferenz.
Viel flexibler
Entwickelt für Training und Inferenz. Unterstützung für eine Vielzahl von ML-Modellen. Erzielen Sie neue Durchbrüche für Wettbewerbsvorteile.
Einfach zu bedienen
Unterstützung von AI-Experten.
Umfangreiche Dokumentation, Tutorials und vorkonfigurierte Modelle.
Beliebte ML-Framework-Unterstützung.
Exklusives Lösungspaket
Die auf IPU basierende KI-Cloud von Gcore ist ein Graphcore Bow IPU POD Scale-Out-Cluster, der unkompliziert maschinelle Intelligenz-Rechenleistung nach Bedarf bereitstellt, ohne dass Hardware vor Ort installiert oder eine KI Infrastruktur aufgebaut werden muss.
Die IPU ist ein völlig neuer, massiv-paralleler Prozessor, der zusammen mit dem Poplar® SDK von Grund auf neu entwickelt wurde, um ML zu beschleunigen. Die hohe Performance bei niedrigen Kosten der Cloud IPU sind ideal für ML Teams, die ihre Lösungen schnell und häufig testen und trainieren möchten.


Suspension Modus für Cloud Virtual vPODs
Der Suspension-Modus bietet eine kosteneffektive und ressourceneffiziente Lösung zum vorübergehenden Pausieren einer virtuellen privaten Cloud-Umgebung, wenn sie nicht verwendet wird. Durch die Nutzung dieser Funktion können Kunden effektiv Ausgaben reduzieren und gleichzeitig die Integrität von Daten und Konfigurationen erhalten.
- Nur Speicher und Floating IP (falls aktiv) werden berechnet, wenn ein Cluster ausgesetzt ist.
- Der Cluster kann mit derselben Konfiguration einfach wieder aktiviert werden.
- Die Netzwerkkonfiguration und die Cluster-Daten werden auf externem Blockspeicher gespeichert, wobei Informationen zum ephemeren Speicher ausgeschlossen sind. Dies bietet die Möglichkeit, die Konfiguration zu ändern und den Cluster bei Bedarf zu erweitern, was eine größere Flexibilität ermöglicht
Eigenschaften und Vorteile
Höchste Performance für Natural Language Processing.
Erstellen, trainieren und Bereitstellen von gebrauchsfertigen ML-Modellen über Dashboard, API oder Terraform
Dataset-Management und Integration mit S3/NFS-Speicher
Versionskontrolle: Hardware, Code, Dataset
Sichere und vertrauenswürdige Cloud-Plattform
Kostenloser Egress-Traffic (für öffentliche oder hybride Lösungen)
SLA 99,9% garantierte Verfügbarkeit
Hochqualifizierter technischer Support 24/7
Hergestellt in der EU
AI-Tools und Integrationen für den gesamten Lebenszyklus
- TensorFlow
- Keras
- PyTorch
- Paddle Paddle
- ONNX
- Hugging Face
- Storm
- Spark
- Kafka
- PySpark
- MS SQL
- Oracle
- MongoDB
- Visual Studio Code
- PyCharm
- Jupyter
- GitLab
- GitHub
- RStudio
- Xcode
- Airflow
- Seaborn
- Matplotlib
- TensorBoard
- JavaScript
- R
- Swift
- Python
- PostgreSQL
- Hadoop
- Spark
- Vertika
ML- und KI-Lösungen:
Empfangen und Verarbeiten von Daten:
Entwicklungstools:
Explorations- und
Visualisierungstools:
Programmiersprachen:
Datenplattformen:

Beschleunigen Sie ML mit einer vorgefertigten AI-Infrastruktur
Kunden können mit der AI-Infrastruktur jetzt Modelle einfach trainieren und vergleichen oder kundenspezifische Trainingscodes erstellen, und alle Modelle werden in einem zentralen Modell-Repository gespeichert. Diese Modelle können nun an denselben Endpunkten auf der Gcore AI-Infrastruktur bereitgestellt werden. Die IPU-basierte AI-Cloud von Gcore ist darauf ausgelegt, Unternehmen in verschiedenen Branchen wie Finanzen, Gesundheitswesen, Fertigung und wissenschaftlicher Forschung zu unterstützen. Sie wurde entwickelt, um jede Phase ihrer AI-Transformationsreise zu unterstützen, von der Erstellung der Modelle bis hin zum Training und Einsatz.
KI-Modellentwicklung
ML-Modelle: Gesichtserkennung, Objekterkennung
KI-Training und
Hyperparameterabstimmung

Standorte
IPU-POD-Systeme
Bereit zur BestellungIPU-Pod256 is available in Amsterdam. It allows customers to explore AI compute at a supercomputing scale. Designed to accelerate large and demanding machine learning models, IPU-Pod256 gives you the AI resources of a tech giant.

Preise verstehen sich exklusive Mehrwertsteuer.
Testen Sie vPOD4 24h kostenlos! Nehmen Sie Kontakt zu uns auf und erhalten Sie Ihr Angebot!
Wir stehen für die digitale Souveränität der Europäischen Union
Dank IPU-basierter AI-Infrastrukturlösungen verwirklichen wir die HPC-Ambitionen von Luxemburg und verwandeln die Stadt in das Herzstück des europäischen AI-Hubs. Dank Graphcore-Hardware und Gcore-Edge-Cloud kann die neue AI-Infrastruktur vollständig als Service genutzt werden.