1. Home
  2. Blog
  3. Unterstützung von ML- und AI-Workloads durch Graphcore IPUs mit Gcore Cloud und UbiOps
KI
Cloud

Unterstützung von ML- und AI-Workloads durch Graphcore IPUs mit Gcore Cloud und UbiOps

  • June 29, 2023
  • 2 Min.
Unterstützung von ML- und AI-Workloads durch Graphcore IPUs mit Gcore Cloud und UbiOps

Mit dem beschleunigten Fortschritt der künstlichen Intelligenz und des maschinellen Lernens steigt die Nachfrage für leistungsstarke Computerhardware. Wir freuen uns, eine neue Partnerschaft zwischen Gcore, Graphcore und UbiOps zu verkünden, welche eine neue, leistungsfähige Lösung auf diesem Gebiet bietet. Die Intelligence Processing Units (IPUs) von Graphcore, die leistungsfähige MLOps-Plattform von ObiOps und die Cloud-Lösung von Gcore bieten in Kombination eine unübertroffene Effizienz für AI- und ML-Workloads. Sehen wir uns die Sache genauer an.

Ein einzigartiges Serviceangebot für AI-Teams: On-Demand-IPUs in der Cloud

Die Partnerschaft zwischen Gcore Cloud, Graphcore und UbiOps stellt einen wichtigen Schritt zur Unterstützung von AI-Teams dar. Unsere einzigartige Servicelösung kombiniert die beste IPU-Hardware, MLOps-Plattform und Cloud-Infrastruktur.

Graphcore ist ein führendes Unternehmen zur Entwicklung von IPU-Hardware, deren Design den hohen Anforderungen von modernen AI-Aufgaben standhalten soll. Im Gegensatz zu GPUs, welche datenbasierte Parallelisierung bieten, nutzen IPUs in erster Linie die modellbasierte Parallelisierung, um Datenverarbeitungsaufgaben zu beschleunigen.

UbiOps ist eine leistungsfähige Plattform zur Durchführung maschineller Lernvorgänge (Machine Learning Operations – MLOps), welche die Bereitstellung, Orchestrierung und Verwaltung von AI-Modellen vereinfacht. Dadurch können Unternehmen AI-Modelle und -Workflows in unterschiedlichen Cloud-Computing-Umgebungen ausführen und somit ihre Markteinführungszeit mit AI-Lösungen verkürzen, DevOps- und Cloud-Engineering-Kosten senken und gleichzeitig Computing-Ressourcen mit On-Demand-Hardwareskalierung effizient nutzen.

Gemeinsam kreieren Gcore Cloud, Graphcore und UbiOps eine nahtlose Erfahrung für AI-Teams und geben ihnen die Möglichkeit, ihre IPU-Workloads mühelos auszuführen, indem diese auf der UbiOps-Plattform zur Verfügung gestellt werden. Unter Einsatz der Multi-Cloud-Technologie von UbiOps wurde die Orchestrierungsschicht mit der Gcore-Cloud-Infrastruktur über Graphcore IPUs verknüpft, sodass die IPUs für UbiOps-Benutzer auf Abruf verfügbar sind, um AI-Modelle und Traningsausgaben auszuführen.

Mit dieser Integration können Benutzer die Rechenleistung von IPUs für ihre jeweiligen Arbeitsanforderungen nutzen, was IPU-basierte skalierbare Modellinferenz-APIs und beschleunigte Modelltrainingjobs in der UbiOps-Plattform ermöglicht. Benutzer können zudem auch von Out-of-the-box-MLOps-Funktionen profitieren, die UbiOps anbietet. Dazu gehört beispielsweise die Modellversionierung, -Governance und -überwachung.

Die Vorteile von IPUs im Vergleich

Um die Vorteile der Nutzung von IPUs im Vergleich zu anderen Geräten zu verdeutlichen, möchten wir an dieser Stelle die Workloads auf drei unterschiedlichen Computing-Ressourcen vergleichen: CPU, GPU und IPU.

GeräteartGerätCPU-RAMvCPU
CPUCPU70 GB10
GPUA100 (40 GB)70 GB10
IPUPOD-470 GB10

Ein faltendes neuronales Netzwerk (Convolutional Neural Network – CNN) wurde am CIFAR-10-Datensatz auf diesen drei unterschiedlichen Geräten trainiert. Dabei wurde die Trainingsgeschwindigkeit für unterschiedliche effektive Batch-Größen entsprechend verglichen. (Dabei haben wir das Produkt aus der Daten-Batch-Größe und dem Geschwindigkeitsgradienten hergenommen.)

TypEffektive Batch-Größe*Graph-Kompilierung (Sek.)Trainingsdauer (Sek.)ZeitaufwandproTrainingsdurchlauf (Sek.)PreisproEinheit (€/Std.)
IPU-POD450~18047208.1Ab 2,50 €
IPU-POD48~180142026.0Ab 2,50 €
GPU50044308.6Ab 4 €
GPU80261651.7Ab 4 €
CPU500~5 Stunden330Ab 1,30 €
CPU4010+ Stunden10+ MinutenAb 1,30 €

Die Ergebnisse zeigen auf, dass die Trainingsdauer auf einer CPU sogar bei einem relativ einfachen CNN und einem kleinen Datensatz bereits recht lang ist. Unter Einsatz einer spezialisierten Hardware ließ sich jedoch sowohl bei der IPU als auch bei der GPU eine deutliche Bescheunigung verzeichnen. Mit minimaler Optimierung konnte bei der IPU im Gegensatz zur GPU eine sogar noch kürzere Verarbeitungszeit pro Trainingsdurchlauf erreicht werden.

Obwohl die Anschaffungskosten bei einer IPU höher liegen als bei einer CPU, werden diese durch die steigende Effizienz mehr als ausgeglichen. Die Zeiteinsparung, die mit der Nutzung einer IPU einhergeht, kann zu schnelleren Ergebnissen und Innovation führen, was zu einer höheren Investitionsrendite beiträgt.

Beschleunigung der AI-Innovation

Die Zusammenarbeit zwischen Gcore Cloud, Graphcore und UbiOps erschließt das Potential der IPUs für AI- und ML-Workloads, was AI-Teams zugängliche und leistungsfähige Computing-Ressourcen bietet. Wir sind gespannt auf all die neuen Möglichkeiten, die diese Partnerschaft mit sich bringt, um Erfolge zu fördern und mehr AI-Projekte bei ihren Zielen zu unterstützen.

Wenn Sie die IPUs von Graphcore auf Gcore Cloud mit UbiOps ausprobieren möchten, kontaktieren Sie bittesales@gcore.com.

Inhaltsverzeichnis

Testen Sie Gcore AI

Gcore all-in-one platform: cloud, AI, CDN, security, and other infrastructure services.

Ähnliche Artikel

Gcore recognized as a Leader in the 2025 GigaOm Radar for AI Infrastructure
Gcore als Leader im GigaOm Radar 2025 für KI-Infrastruktur ausgezeichnet

Wir freuen uns, bekannt zu geben, dass Gcore im GigaOm-Radar 2025 for AI Infrastructure zum Leader ernannt wurde – und damit als einziger europäischer Anbieter einen Platz in der ersten Reihe erhalten hat. Die unabhängige und strenge B

Gcore und Northern Data Group arbeiten zusammen, um den globalen Einsatz von KI zu verändern

Gcore und Northern Data Group schlagen gemeinsam ein neues Kapitel der KI für Unternehmen auf. Durch die Kombination von Hochleistungsinfrastruktur und intelligenter Software wird die kommerzielle und technologische Partnerschaft die skalie

Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

KI-Entwicklungen erobern die Welt im Sturm. Unternehmen sollten sich aber bewusst sein, dass neue Chancen auch neue Herausforderungen mit sich bringen. Dem Impuls, die Technologie zu nutzen, müssen verantwortungsvolle Regel für deren Einsat

Einführung des KI-Bildgenerators: ein kostenloses Tool zur Erstellung von Bildern anhand von Texteingaben

Wir freuen uns, die Einführung unseres generativen KI-Tools KI-Bildgenerator anzukündigen, mit dem Sie Bilder anhand von Texteingaben erstellen können. Die Nutzung ist kostenfrei und unbegrenzt für Nutzer, die auf der Gcore-Plattform regist

Gcore startet AI-Cloud auf Basis von Graphcore IPU in Manassas, US

Wir freuen uns, die Erweiterung der Gcore AI Cloud angetrieben von Graphcore Bow IPU zu unserem Rechenzentrum in Manassas, Virginia, bekannt zu geben. Manassas liegt strategisch günstig in der Nähe von Washington DC und befindet sich im Her

Gcore und Pienso bieten Zugang zu umfangreichen Sprachmodellen für Unternehmen

Gcore ist erfreut, die Verfügbarkeit von Pienso auf der Gcore Cloud-Platform powered by Graphcore IPUs bekannt zu geben. Pienso ist ein Softwareunternehmen für die Verarbeitung natürlicher Sprache (NLP) mithilfe von Deep Learning. Dami

Melden Sie sich für unseren Newsletter an

Erhalten Sie die neuesten Branchentrends, exklusive Einblicke und Gcore-Updates direkt in Ihren Posteingang.