75% Rabatt auf den ersten Monat.
Gültig für alle Konfigurationen an allen Standorten!
KI-Infrastruktur als Service
Zum schnellen Aufbau einer KI-Infrastruktur vereinen wir Graphcore IPUs und Gcore Cloud-Dienste unter einer einheitlichen Benutzeroberfläche und API für schnelleres ML.
Die Lösung ist schnell einsatzbereit, spart Rechenkosten und lässt sich bei Bedarf unkompliziert auf umfangreichere IPU Rechenleistungen skalieren.
Die Graphcore IPU Cloud-Dienste sind ab sofort als kostenlose Testversion und mit einer Reihe von Tarifoptionen verfügbar, die es Entwicklern auf der ganzen Welt erleichtern, Fortschritte im Bereich des maschinellen Lernens zu erzielen.
Warum Graphcore IPUs?
Enorme Leistungssteigerung
Weltweit führende Leistung für Natural Language Processing, Computer Vision und Graph Networks.
Einzigartige Architektur für differenzierte Ergebnisse.
Niedrige Latenzzeit-Inferenz.
Viel flexibler
Entwickelt für Training und Inferenz.
Unterstützung für eine Vielzahl von ML-Modellen.
Erzielen Sie neue Durchbrüche für Wettbewerbsvorteile.
Einfach zu bedienen
Unterstützung von AI-Experten.
Umfangreiche Dokumentation, Tutorials und vorkonfigurierte Modelle.
Beliebte ML-Framework-Unterstützung.
Exklusives Lösungspaket
Die auf IPU basierende KI-Cloud von Gcore ist ein Graphcore Bow IPU POD Scale-Out-Cluster, der unkompliziert maschinelle Intelligenz-Rechenleistung nach Bedarf bereitstellt, ohne dass Hardware vor Ort installiert oder eine KI Infrastruktur aufgebaut werden muss.
Die IPU ist ein völlig neuer, massiv-paralleler Prozessor, der zusammen mit dem Poplar® SDK von Grund auf neu entwickelt wurde, um ML zu beschleunigen. Die hohe Performance bei niedrigen Kosten der Cloud IPU sind ideal für ML Teams, die ihre Lösungen schnell und häufig testen und trainieren möchten.
Führend bei der KI-Inferenz
Der Graphcore Bow IPU-POD übertrifft den beliebten NVIDIA DGX A100, wenn er mit den drei branchenüblichen KI-Modellen in der Cloud getestet wird. Die Bow IPU-POD liefert einen höheren Durchsatz und ein besseres Preis-Leistungs-Verhältnis.
Suspension Modus für Cloud Virtual vPODs
Der Suspension-Modus bietet eine kosteneffektive und ressourceneffiziente Lösung zum vorübergehenden Pausieren einer virtuellen privaten Cloud-Umgebung, wenn sie nicht verwendet wird. Durch die Nutzung dieser Funktion können Kunden effektiv Ausgaben reduzieren und gleichzeitig die Integrität von Daten und Konfigurationen erhalten.
- Nur Speicher und Floating IP (falls aktiv) werden berechnet, wenn ein Cluster ausgesetzt ist.
- Der Cluster kann mit derselben Konfiguration einfach wieder aktiviert werden.
- Die Netzwerkkonfiguration und die Cluster-Daten werden auf externem Blockspeicher gespeichert, wobei Informationen zum ephemeren Speicher ausgeschlossen sind. Dies bietet die Möglichkeit, die Konfiguration zu ändern und den Cluster bei Bedarf zu erweitern, was eine größere Flexibilität ermöglicht
Möchten Sie andere AI Beschleuniger ausprobieren?
Werfen Sie einen Blick auf unsere AI GPU Cloud Angebote!
Testen Sie GCore Bare Metal Server und virtuelle Maschinen mit NVIDIA A100 und H100 GPUs.
Beide sind leistungsstarke und vielseitige Beschleuniger ideal für KI und High Performance Computing Workloads.
Eigenschaften und Vorteile
Höchste Performance für Natural Language Processing.
Erstellen, trainieren und Bereitstellen von gebrauchsfertigen ML-Modellen über Dashboard, API oder Terraform
Dataset-Management und Integration mit S3/NFS-Speicher
Versionskontrolle: Hardware, Code, Dataset
Sichere und vertrauenswürdige Cloud-Plattform
Kostenloser Egress-Traffic für Virtual vPOD
SLA 99,9% garantierte Verfügbarkeit
Hochqualifizierter technischer Support 24/7
Bereitgestellt in der Europäischen Union
AI-Tools und Integrationen für den gesamten Lebenszyklus
- TensorFlow
- Keras
- PyTorch
- Paddle Paddle
- ONNX
- Hugging Face
- Storm
- Spark
- Kafka
- PySpark
- MS SQL
- Oracle
- MongoDB
- Visual Studio Code
- PyCharm
- Jupyter
- GitLab
- GitHub
- RStudio
- Xcode
- Airflow
- Seaborn
- Matplotlib
- TensorBoard
- JavaScript
- R
- Swift
- Python
- PostgreSQL
- Hadoop
- Spark
- Vertika
ML- und KI-Lösungen:
Empfangen und Verarbeiten von Daten:
Entwicklungstools:
Explorations- und
Visualisierungstools:
Programmiersprachen:
Datenplattformen:
Beschleunigen Sie ML mit einer ready-made AI-Infrastruktur
Kunden können mit der AI-Infrastruktur jetzt Modelle einfach trainieren und vergleichen oder kundenspezifische Trainingscodes erstellen. Alle Modelle werden in einem zentralen Modell-Repository gespeichert. Diese Modelle können nun an denselben Endpunkten auf der Gcore AI-Infrastruktur bereitgestellt werden.
Die IPU-basierte AI-Cloud von Gcore ist darauf ausgelegt, Unternehmen in verschiedenen Branchen wie Finanzen, Gesundheitswesen, Fertigung und wissenschaftlicher Forschung zu unterstützen. Sie wurde entwickelt, um jede Phase ihrer AI-Transformationsreise zu unterstützen, von der Erstellung der Modelle bis hin zum Training und Einsatz.
KI-Modellentwicklung
ML-Modelle: Gesichtserkennung, Objekterkennung
KI-Training und
Hyperparameterabstimmung
Standorte
IPU-POD-Systeme
Bereit zur BestellungDer IPU-Pod256 steht in Amsterdam zur Verfügung. Er ermöglicht es Kunden, KI-Rechenleistung im Supercomputing-Maßstab zu testen. Der IPU-Pod256 wurde für die Beschleunigung großer und anspruchsvoller Machine-Learning-Modelle entwickelt und bietet die KI-Ressourcen eines Tech-Giganten.
Preise verstehen sich exklusive Mehrwertsteuer.
Testen Sie vPOD4 24h kostenlos! Nehmen Sie Kontakt zu uns auf und erhalten Sie Ihr Angebot!
Wir stehen für die digitale Souveränität der Europäischen Union
Dank IPU-basierter AI-Infrastrukturlösungen verwirklichen wir die HPC-Ambitionen von Luxemburg und verwandeln die Stadt in das Herzstück des europäischen AI-Hubs. Dank Graphcore-Hardware und Gcore-Edge-Cloud kann die neue AI-Infrastruktur vollständig als Service genutzt werden.