Start der NVIDIA H100 GPU mit 3,2 Tbps ConnectX-7 Karten in Luxemburg

Start der NVIDIA H100 GPU mit 3,2 Tbps ConnectX-7 Karten in Luxemburg

Wir freuen uns, die baldige Verfügbarkeit der leistungsstarken NVIDIA H100 GPU-Beschleuniger mit ConnectX-7-Karten in unseren Rechenzentren in Luxemburg ankündigen zu können. Die ConnectX-7-Karten bieten eine beeindruckende Netzwerkbandbreite von 3,2 Tbps. Ausgestattet mit diesen intelligenten Adaptern verfügen die leistungsstärksten NVIDIA-GPUs über eine erstklassige KI-Architektur für das Trainieren, den Einsatz und die Bereitstellung von KI/ML-Modellen im großen Maßstab.

Anwendungsfälle für ConnectX-7-Karten

H100-GPUs mit ConnectX-7-Karten werden Teil des generativen AI-Clusters sein, das wir im September 2023 starten. Der Cluster umfasst Dutzende von Servern auf der Grundlage von NVIDIA A100 und H100 GPUs. Er bietet den erheblichen Leistungsschub, der für das Trainieren und die Inferenz großer KI/ML-Modelle, einschließlich der generativen KI, erforderlich ist.

Mit ConnectX-7-Karten können Sie mehrere GPU-Instanzen miteinander verbinden, und erreichen so eine außergewöhnliche Leistung und Skalierbarkeit. Dies ist besonders nützlich für das Trainieren und den Einsatz umfangreicher Modelle sowie für den Aufbau skalierbarer Multi-GPU-Cluster für Inferenzen mit unvorhersehbaren Workloads.

NVIDIA ConnectX-7 InfiniBand-Adapter

Der NVIDIA ConnectX-7 Smart Host Channel Adapter bietet höchste Netzwerkleistung für GPU-intensive Workloads wie Natural Language Processing (NLP)-Anwendungen und Supercomputing. Basierend auf der NVIDIA Quantum-2 InfiniBand-Architektur bietet ConnectX-7 eine extrem niedrige Latenz, einen Durchsatz von 3,2 Tbps und innovative NVIDIA In-Network Computing Acceleration Engines für die zusätzliche Beschleunigung zur Verbesserung der Skalierbarkeit von Workloads.

Die wichtigsten Merkmale von ConnectX-7:

  • Beschleunigte softwaredefinierte Netzwerke
  • Verbesserte Sicherheit mit Inline-Verschlüsselung und -Entschlüsselung von TLS, IPsec und MACsec
  • Hohe Speicherleistung mit RDMA/RoCE, GPUDirect Storage und hardwarebasierten NVMe-oF Offload Engines
  • Präzise Zeitsynchronisierung für Anwendungen in Rechenzentren und zeitkritische Infrastrukturen

Jetzt loslegen

NVIDIA-GPUs stellen die Leistung für unsere virtuellen Instanzen, Bare-Metal-Server und Managed Kubernetes-Arbeitsknoten bereit, die auf virtuellen und Bare-Metal-Instanzen basieren. Die KI-Infrastruktur von Gcore lässt sich nahtlos in MLOps-Plattformen wie UbiOps integrieren und rationalisiert die Arbeitsabläufe für maschinelles Lernen vom Experimentieren bis zur Bereitstellung. Sie können unsere AI GPU-Infrastruktur kostenlos testen und ihre Leistungsfähigkeit selbst erleben. Um Ihre kostenlose Testphase zu erhalten, füllen Sie dieses Formular aus und unser Vertriebsteam wird sich mit Ihnen in Verbindung setzen, um die Einzelheiten zu besprechen.

Weitere Informationen über KI-Computing und den Beitrag von Gcore zur Branche finden Sie in unseren KI-Blogbeiträgen.

Melden Sie sich an, um die neuesten Updates, Nachrichten und Funktionen zu erhalten.

Wir respektieren Ihren Posteingang und bemühen uns, Spam zu vermeiden