Neuer Radar Report: DDoS - Trends entdecken, Schutz optimieren.Zum Report

Produkte

Lösungen

Ressourcen

Partner

Warum Gcore

  1. Home
  2. Blog
  3. Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

  • By Gcore
  • January 22, 2025
  • 7 min read
Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

KI-Entwicklungen erobern die Welt im Sturm. Unternehmen sollten sich aber bewusst sein, dass neue Chancen auch neue Herausforderungen mit sich bringen. Dem Impuls, die Technologie zu nutzen, müssen verantwortungsvolle Regel für deren Einsatz vorausgehen. Nur so ist sichergestellt, dass durch KI weder Unternehmen noch ihre Kunden Risiken ausgesetzt sind. Um diesem Anspruch gerecht zu werden, entwickeln Regierungen weltweit Gesetze zur Regulierung von KI und Datennutzung.

Sich in einem immer komplexeren Netz von internationalen Vorschriften zurechtzufinden, kann überfordernd sein. Deshalb werden wir in diesem Artikel die Gesetzgebung einiger führender KI-Hubs auf allen Kontinenten aufschlüsseln und Ihnen genau die Informationen zur Verfügung stellen, die Ihr Unternehmen benötigt, um KI optimal zu nutzen – sicher, legal und ethisch vertretbar.

Falls Sie unsere früheren Blogs verpasst haben, in denen wir die KI-Vorschriften nach Regionen aufgeschlüsselt haben, lesen Sie sie hier: Nordamerika, Lateinamerika, Europa, APAC, Naher Osten.

Um die Zusammenfassung zu lesen, gehen Sie bitte zur Übersichtstabelle.

Globale Trends der KI-Regulierung

Auch wenn die Vorschriften je nach Standort variieren, haben sich 2024 weltweit mehrere übergreifende Trends herauskristallisiert. Dazu zählen eine Fokussierung auf Datenlokalisierung, risikoabhängige Regulierung und eine Priorisierung des Datenschutzes. Sie sind zu allgemein anerkannten Leitlinien geworden. Das gemeinsame Ziel aller Länder ist es, Innovationen zu fördern und gleichzeitig die Verbraucher zu schützen – auch wenn die einzelnen Regionen diese Ziele auf unterschiedliche Weise zu erreichen versuchen.

Viele Länder folgen dem Beispiel der EU, deren KI-Gesetz ein mehrstufiges Regulierungsmodell je nach potenziellem Risikograd vorsieht. Bei diesem System gelten für jede Risikostufe unterschiedliche Anforderungen: Für Hochrisikoanwendungen, die entweder die öffentliche Sicherheit oder Bürgerrechte betreffen, gilt eine andere Sicherheitsstufe als für allgemeine KI-Anwendungen, bei denen die Risiken weniger hoch eingestuft werden.

Europa: strukturiert und stringent

Europa hat einige der strengsten KI-Vorschriften der Welt mit Schwerpunkt Datenschutz gemäß der DSGVO sowie dem neuen risikoabhängigen KI-Gesetz. Dieser Ansatz beruht vor allem darauf, dass die EU den Schwerpunkt auf Verbraucherrechte legt und dafür sorgt, dass die Sicherheit der Nutzerdaten durch die digitale Technologie gewährleistet wird. Das vorgeschlagene KI-Gesetz der EU, über das noch verhandelt wird und das bis 2025 verabschiedet sein soll, stuft KI-Anwendungen nach den Risikoklassen „inakzeptables Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „niedriges Risiko“ ein. Risikoreiche KI-Tools, wie sie bei biometrischer Identifizierung oder Finanzentscheidungen eingesetzt werden, müssen strenge Standards in Bezug auf Datenverwaltung, Transparenz und menschliche Aufsicht erfüllen.

Einige EU-Länder haben zusätzliche Standards zum EU-Rahmen eingeführt, insbesondere für mehr Datenschutz und Kontrolle. Der deutsche DSK-Leitfaden zum Beispiel konzentriert sich auf die Rechenschaftspflicht großer Sprachmodelle (LLM) und fordert mehr Transparenz, menschliche Kontrolle und die Zustimmung zur Datennutzung.

Unternehmen, die KI in Europa einsetzen wollen, müssen sowohl die einheitlichen Anforderungen des KI-Gesetzes als auch die mitgliedsspezifischen Vorschriften berücksichtigen, die eine differenzierte und strenge Compliance-Landschaft schaffen.

Nordamerika: neue Vorschriften

Die Vorschriften für künstliche Intelligenz in Nordamerika sind weit weniger einheitlich als die in Europa. Die USA und Kanada sind noch dabei, ihre jeweiligen KI-Rahmenregelungen auszuarbeiten, wobei der derzeitige Ansatz der USA weniger streng und zugleich innovationsfreundlicher ist, während Kanada eine zentralisierte Steuerung bevorzugt.

Die Vereinigten Staaten arbeiten mit einem Hybridmodell aus bundesstaatlichen Richtlinien, wie dem Blueprint for an AI Bill of Rights, sowie einzelstaatlichen Gesetzen, wie dem California Consumer Privacy Act (CCPA) und dem Virginia Consumer Data Protection Act (VCDPA), die dazu dienen, einige der strengeren Datenschutzvorschriften durchzusetzen. Die zweistufige Vorgehensweise ähnelt dem in der EU, wo es sowohl Vorschriften auf EU-Ebene als auch auf Länderebene gibt.

Der grundsätzlich liberale Ansatz der USA entspricht dem dortigen Verständnis der freien Marktwirtschaft und räumt Innovation und Wachstum den Vorrang vor strengen Sicherheitsmaßnahmen ein. Doch nicht alle Staaten machen sich einen solch freizügigen Umgang zu eigen. Die Divergenz zwischen strengen einzelstaatlichen Gesetzen und eher lockeren Bundesrichtlinien kann zu einer fragmentierten Regulierungslandschaft führen, die für Unternehmen nur sehr schwer zu durchschauen ist.

Asien-Pazifik (APAC): divergierende Strategien mit Fokus auf Innovation

Die APAC-Region entwickelt sich schnell zu einem globalen Spitzenreiter in Sachen KI-Innovation, deren wichtigsten Märkte das technologische Wachstum in verschiedenen Sektoren maßgeblich vorantreiben. Die Regierungen in der Region haben darauf mit der Schaffung von Rahmenbedingungen reagiert, die den verantwortungsvollen Einsatz von KI und die Datensouveränität in den Vordergrund stellen. Indiens künftiges Gesetz zum Schutz digitaler personenbezogener Daten (Digital Personal Data Protection Bill, DPDPB), Singapurs Modellrahmen für KI-Governance (Model AI Governance Framework) und Südkoreas Gesetz zur Förderung der KI-Industrie (AI Industry Promotion Act) werfen ein Schlaglicht auf die regulatorische Vielfalt in der Region und unterstreichen gleichzeitig die gemeinsame Forderung nach Transparenz und Datenlokalisierung.

Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in der APAC-Region. Länder wie China setzen beispielsweise einige der weltweit strengsten Gesetze zur Datenlokalisierung durch, während Japan „Soft-Law“-Prinzipien eingeführt hat und bald verbindliche Vorschriften erwartet. Diese unterschiedlichen Ansätze spiegeln die spezifische Balance zwischen Innovation und Verantwortung in jedem Land wider.

Lateinamerika: neue Normen für den Datenschutz

Die lateinamerikanische KI-Regulierungslandschaft befindet sich noch in der Entstehungsphase, wobei ein gemeinsamer Schwerpunkt auf dem Datenschutz liegt. Brasilien, das in der Region führend bei der digitalen Regulierung ist, erließ das Allgemeine Datenschutzgesetz (General Data Protection Law, LGPD) ein, das in seinem datenschutzfreundlichen Ansatz – ähnlich wie das argentinische Datenschutzgesetz– eng an die DSGVO angelehnt ist. Mexiko prüft ebenfalls eine KI-Gesetzgebung und hat bereits unverbindliche Leitlinien herausgegeben, in denen ethische Grundsätze und Menschenrechte betont werden.

Während sich die regionale KI-Politik noch in der Entwicklung befindet, tendieren andere lateinamerikanische Länder wie Chile, Kolumbien, Peru und Uruguay zu Rahmenwerken, die Transparenz, die Zustimmung der Nutzer und menschliche Kontrolle in den Vordergrund stellen. Mit der zunehmenden Verbreitung von KI werden die lateinamerikanischen Länder wahrscheinlich dem Beispiel der EU folgen und risikobasierte Vorschriften einführen, die sich mit Hochrisikoanwendungen, Datenverarbeitungsstandards und Datenschutzrechten befassen.

Naher Osten: Zentren für KI-Innovationen

Die Länder des Nahen Ostens investieren erheblich in KI, um das Wirtschaftswachstum anzukurbeln, weshalb auch die Politik besonders innovationsfreundlich ist. In vielen Fällen liegt der Schwerpunkt der Politik sowohl auf der Entwicklung technologischer Spitzenleistungen und der freiwilligen Einhaltung durch die Unternehmen als auch auf strengen gesetzlichen Anforderungen. Dies macht die Region zudem besonders komplex für Unternehmen, die sich bemühen, sich den Bedingungen jedes Landes anzupassen.

Die VAE wollen sich durch Initiativen wie die UAE National AI Strategy 2031 als weltweit führend im KI-Sektor positionieren. Die Strategie umfasst ethische Leitlinien, legt aber auch Wert auf eine innovationsfreundliche Politik, die Investitionen anzieht. Saudi-Arabien geht einen ähnlichen Weg. Vorschriften wie die Standards für Datenmanagement und den Schutz personenbezogener Daten (Data Management and Personal Data Protection Standards)konzentrieren sich auf Transparenz und Datenlokalisierung, um die Daten der Bürger zu schützen und gleichzeitig die rasche Entwicklung von KI in allen Bereichen zu fördern. Israels KI-Regulierung stützt sich auf flexible, in den Datenschutzgesetzen verankerte Richtlinien, einschließlich des Datenschutzgesetzes (Privacy Protection Law, PPL), das 2024 geändert wurde, um es an die DSGVO der EU anzupassen.

Übersichtstabelle mit Zusammenfassung

RegionLand/RegionVorschrift/RichtlinieSchwerpunktAuswirkungen auf die Wirtschaft
EuropaEUKI-Gesetz (geplant)Risikoabhängige KI-Klassifizierung; hohe Standards bei Datenverwaltung, Transparenz und menschlicher AufsichtHöhere Aufwände bei Compliance, mögliche Verzögerungen bei der Einführung von KI aufgrund strikter Auflagen
 EUDatenschutzgrundverordnung (DSGVO)Datenschutz, Zustimmung zur Datenverarbeitung, Beschränkungen für grenzüberschreitende DatenübertragungenErhöhte Betriebskosten für die Einhaltung der Vorschriften, Herausforderungen für die globale Datenübertragung und -speicherung
NordamerikaUSAEntwurf für ein KI-GrundgesetzKI-Sicherheit, Datenschutz, Fairness; unverbindliche staatliche LeitlinienFlexibilität ermöglicht Innovation, aber Gesetze auf Länderebene erhöhen das Risiko der Fragmentierung von Vorschriften
 USA (Bundesstaaten)California Consumer Privacy Act (CCPA) & Virginia Consumer Data Protection Act (VCDPA)Datenschutz, Verbraucherdatenschutz, strenge Einhaltung der Vorschriften zur DatenverarbeitungErhöhte gesetzliche Anforderungen für Unternehmen, die in strengen Bundesstaaten tätig sind
 KanadaArtificial Intelligence and Data Act (AIDA) (geplant)Nationale KI-Ethik und Datenschutz; Transparenz, Verantwortlichkeit für die Nutzung personenbezogener DatenErfordert Investitionen in KI-Auditsysteme und Dokumentation
 KanadaPersonal Information Protection and Electronic Documents Act (PIPEDA)Datentransparenz, Zustimmung der Nutzer, Verantwortlichkeit bei der Verwendung personenbezogener DatenBietet Organisationen die Möglichkeit, durch Transparenz das Vertrauen ihrer Kunden zu gewinnen
APAC (Asien-Pazifik)IndienDigital Personal Data Protection Bill (DPDPB)Datenschutz, Einwilligung der Nutzer, Datensouveränität, LokalisierungBetriebskosten für Systeme zur Datenlokalisierung, limitiert grenzüberschreitenden Datenfluss
 SingapurModell eines Rahmenwerks für KI-GovernanceVerantwortungsvolle KI-Nutzung, Data Governance, TransparenzUnternehmen, die sich frühzeitig an den Anforderungen orientieren, sichern sich einen Wettbewerbsvorteil
 SüdkoreaAI Industry Promotion ActUnterstützung der KI-Industrie, Transparenz, DatenlokalisierungFördert KI-Innovationen, bringt aber Lokalisierungskosten für internationale Unternehmen mit sich
 ChinaGesetze zur DatenlokalisierungStrenge Datenlokalisierung, Hoheit über die DatenverarbeitungDie Datenlokalisierung ist mit Kosten für die Einhaltung der Vorschriften verbunden und kann für ausländische Unternehmen, die in China tätig sind, Hindernisse darstellen
 JapanGesetz zum Schutz der Privatsphäre (Soft-Law-Grundsätze)Schutz der Privatsphäre, künftige verbindliche Vorschriften erwartetKurzfristige geschäftliche Flexibilität mit dem Potenzial für zukünftige Kosten für Compliance, wenn verbindliche Vorschriften eingeführt werden
LateinamerikaBrasilienAllgemeines Datenschutzgesetz (General Data Protection Law, LGPD)Datenschutz, Einwilligung in die Datenverarbeitung, Transparenz bei der DatennutzungDie Angleichung an die DSGVO kann europäischen Unternehmen den Einstieg erleichtern, birgt aber auch das Potenzial, die Kosten für die Einhaltung der Vorschriften zu erhöhen
 MexikoEthische Grundsätze der KI (nicht bindend)Ethische Grundsätze, Menschenrechte, Leitlinien für den verantwortungsvollen Umgang mit KIMinimale Compliance-Anforderungen, ein „Soft-Law“-Ansatz ermöglicht Unternehmen Flexibilität
 ArgentinienGesetz zum Schutz personenbezogener DatenDSGVO-konform; Einwilligung, Datenschutz, Nutzerrechte 
 ChileNational Intelligence PolicyMenschenrechte, Transparenz, Vermeidung von Bias beim Einsatz von KIGeringe Compliance-Kosten, aber Fokus auf ethische KI-Praktiken erforderlich
 KolumbienNational Policy for Digital TransformationEthische KI-Nutzung, verantwortungsvolle Entwicklung, DatensouveränitätFokus auf ethische Praktiken könnte Wettbewerbsvorteile bei öffentlichen Ausschreibungen schaffen
 PeruNationale Strategie für KIKI-Infrastruktur, Ausbildung von Fachkräften, ethische DatenpraktikenSchafft Möglichkeiten für Unternehmen, die sich mit KI-Schulungen und -Infrastrukturen befassen, erfordert jedoch ethische Orientierung
 UruguayAktualisierte KI-Strategie (in Arbeit)Governance in der öffentlichen Verwaltung, KI-InnovationErleichterung des Marktzugangs für innovationsorientierte Unternehmen trotz anspruchsvoller Anpassung an Governance-Rahmenbedingungen
Naher OstenVAELeitfaden für KI-Ethik und für die Einführung von KIEthische Standards, Datenschutz, verantwortungsvoller Einsatz von KIUnterstützt ethische KI-Entwicklung mit minimaler regulatorischer Belastung
 VAEDubai International Financial Center (DIFC) DatenschutzbestimmungenDatennutzung in KI-Anwendungen, Datenschutzrechte, DatenlokalisierungKann die Datenübertragung erschweren, positioniert Dubai aber als führendes KI-Land
 VAEKI-ChartaGovernance, Transparenz und Datenschutz in der KI-PraxisFördert die internationale Zusammenarbeit und betont den verantwortungsvollen Einsatz von KI
 Saudi-ArabienStandards für Datenmanagement und Schutz personenbezogener DatenTransparenz, Datenlokalisierung, minimale Einschränkungen für KI-InnovationenUnterstützt Innovation, erhöht aber Kosten für lokalisierte Datenverarbeitung
 Saudi-ArabienEthische Grundsätze der KI und Richtlinien für generative KIEthische Standards, verantwortungsvolle KI-Nutzung, Leitlinien für die IndustrieNiedrige Compliance-Kosten fördern Innovation
 IsraelPrivacy Protection Law (PPL) und KI-PolitikDatenschutz, DSGVO-konforme Änderungen (KI-Politik), ethische und flexible KI-RegulierungFlexibilität für ethisch handelnde Unternehmen, Angleichung an DSGVO kann europäische Zusammenarbeit erleichtern

Compliance-Management angesichts sich überschneidender Vorschriften

Compliance-Management stellt schon immer eine Herausforderung dar. Angesichts der vielfältigen und oft widersprüchlichen Anforderungen, die weltweit gelten, ist die Einhaltung von Vorschriften heute jedoch schwieriger denn je. International tätige Unternehmen müssen eine Balance zwischen der Einhaltung strenger Vorschriften wie der EU-Datenschutzgrundverordnung (DSGVO) oder den chinesischen Gesetzen zur Datenlokalisierung und der Einhaltung flexiblerer oder innovationsorientierter Rahmenwerke in Ländern wie Singapur und Saudi-Arabien finden. Unternehmen sind gefordert, ihre Abläufe an die unterschiedlichen Standards für Datenschutz, Transparenz und Governance anzupassen, was zu höheren Kosten und betrieblicher Ineffizienz führen kann. Diese Fragmentierung der Vorschriften zwingt Unternehmen oft zu erheblichen Investitionen in juristische Expertise, in Compliance-Infrastruktur und in maßgeschneiderte operative Strategien, um widersprüchliche Anforderungen zu erfüllen.

Vereinfachung globaler KI-Compliance mit Gcore

Für international tätige Unternehmen stellt die Einhaltung unterschiedlicher KI-Vorschriften eine große Hürde dar. State-of-the-Art-Technologien wie Sovereign Cloud und Edge Computing eröffnen jedoch neue Möglichkeiten, diese Standards zu erfüllen. Sovereign Clouds ermöglichen die Datenspeicherung und -verarbeitung innerhalb bestimmter Regionen, was es den Unternehmen erleichtert, die Gesetze zur Datenlokalisierung einzuhalten und gleichzeitig von der Skalierbarkeit der Cloud zu profitieren. Anbieter wie Gcore bieten Lösungen mit einem weltweiten Netz von Datenzentren an, die globalen Unternehmen einen nahtlosen Betrieb über Grenzen hinweg ermöglichen.

Gcore ist führend im Edge Computing, das als Ergänzung zur Lokalisierung die Datenverarbeitung näher am Entstehungsort der Daten ermöglicht. Dies verringert den Bedarf an grenzüberschreitenden Datenübertragungen und verbessert sowohl Latenzzeit als auch Netzwerkeffizienz. Dies ist besonders vorteilhaft für KI-Anwendungen in Bereichen wie autonomes Fahren und Telemedizin, in denen sowohl Geschwindigkeit als auch Konformität entscheidend sind. Darüber hinaus vereinfacht Gcore die Einhaltung von Vorschriften wie der EU-DSGVO und dem KI-Gesetz, indem es dazu beiträgt, dass sensible Daten sicher und innerhalb der regionalen Grenzen bleiben.

Entdecken Sie Gcore Inference at the Edge für die lückenlose Einhaltung von gesetzlichen Vorschriften

Related Articles

KI-Compliance in der EU: Vorbereitung auf die EU-Gesetze zu KI und Datenlokalisation

Die rasche Entwicklung der KI hat viele Behörden dazu veranlasst, sich um die rasche Ausarbeitung eines Regulierungsrahmens zu bemühen, der alle potenziellen Anwendungen und die für den Betrieb erforderlichen Daten berücksichtigt. Die Europäische Union hat das KI-Gesetz erlassen, um strenge ethische Richtlinien für den Einsatz von KI festzulegen. Während sich sowohl die Industrie als auch die Regierungen mit den Chancen und Herausforderungen von KI befassen, wird ein sehr starkes Regulierungssystem immer wichtiger. Das Gesetz zielt darauf ab, KI-Risiken zu reduzieren und gleichzeitig Innovationen voranzutreiben und Grundrechte zu schützen. Die Unternehmen müssen diese Regeln verstehen, wenn sie sich an die sich ändernden Bedingungen anpassen.In diesem Artikel werfen wir einen genaueren Blick auf die wichtigsten Vorschriften, erläutern ihre Auswirkungen und schlagen umsetzbare Maßnahmen vor, die Unternehmen ergreifen können, um die Vorschriften einzuhalten, ohne die Innovation im Bereich KI zu behindern.Was versteht man unter dem KI-Gesetz der EU?Die EU hat mit ihrem Regelwerk eine strikte Haltung eingenommen. Das KI-Gesetz der EU wurde 2024 ausgearbeitet und wird 2026 wirksam. Diese Lücke gibt den Regierungen, Unternehmen und anderen Einrichtungen Zeit, sich auf die Umsetzung vorzubereiten. Es ist auch möglich, dass das Gesetz vor seiner vollständigen Umsetzung weiterentwickelt wird, da einige Bestimmungen noch nicht endgültig festgelegt sind.Der neue Gesetzesentwurf wird die DSGVO ergänzen, die bereits erheblichen Handlungsdruck auf Unternehmen ausübt, die personenbezogene Daten verarbeiten. Das Gesetz richtet sich in erster Linie an Anbieter (Entwickler) von KI-Systemen mit hohem Risikopotenzial, insbesondere an solche, die solche Systeme in der EU in Verkehr bringen oder nutzen wollen. Diese Verpflichtung erstreckt sich auch auf Drittlandanbieter, wenn deren Systeme in der EU genutzt werden. Die Nutzer (Anwender) dieser Systeme sind ebenfalls in der Verantwortung, allerdings in geringerem Maße als die Anbieter.Dieser Rahmen spiegelt die wachsende Erkenntnis wider, dass die weit verbreitete Einführung von KI von soliden Regulierungsmaßnahmen begleitet werden muss, um potenzielle Risiken zu mindern, ohne den technologischen Fortschritt zu behindern. Tatsächlich wird der globale KI-Markt im Jahr 2024 einen voraussichtlichen Wert von 184 Milliarden US-Dollar erreichen, mit einer prognostizierten jährlichen Wachstumsrate von fast 30 %. Das KI-Gesetz soll diese Expansion verantwortungsvoll steuern und sicherstellen, dass sowohl Innovation als auch öffentliche Sicherheit Vorrang haben.Das KI-Gesetz kategorisiert Systeme in drei Stufen: unannehmbares Risiko, hohes Risiko und geringes oder minimales Risiko. Werfen wir einen genaueren Blick darauf.Unzumutbares RisikoKI-Systeme, die eine Gefahr für die Sicherheit oder die Grundrechte der Menschen darstellen, werden verboten. Zu diesen verbotene Systemen gehören Technologien, die für Social Scoring eingesetzt werden, manipulative KI, die darauf ausgelegt ist, das Verhalten zu verzerren, wahllose staatliche Überwachung und Systeme, die Schwachstellen aufgrund von Alter, Behinderung oder sozioökonomischem Status ausnutzen.Hohes RisikoAlle KI-Anwendungen, die die Rechte oder die Sicherheit von Personen erheblich beeinträchtigen können, fallen in diese Kategorie. Anbieter von Produkten, die KI-Systeme mit hohem Risiko verwenden, sind dafür verantwortlich, ein geeignetes Risikomanagementsystem einzurichten, die Anforderungen an die Datenverwaltung zu erfüllen, eine Compliance-Dokumentation bereitzustellen, eine menschliche Aufsicht zu ermöglichen und ein angemessenes Maß an Genauigkeit und Cybersicherheit zu erreichen.Das KI-Gesetz enthält eine Liste mit einer Reihe von Anwendungen mit hohem Risiko, darunter biometrische Identifizierung, KI für kritische Infrastrukturdienste, Bildungsanwendungen, Einstellungs- und Leistungsbewertungsinstrumente, Eignungsprüfung für den öffentlichen Dienst und Strafverfolgungssysteme zur Risikobewertung kriminellen Verhaltens. Ein hohes Risiko besteht auch bei allen KI-Anwendungen, die sich erheblich auf die Rechte oder die Sicherheit von Personen auswirken können.Geringes oder minimales RisikoAllzweck-KI-Systeme mit minimalem Schadenspotenzial, wie Chatbots, werden weniger strengen regulatorischen Anforderungen unterliegen, auch wenn einige grundlegende Compliance-Verpflichtungen weiterhin gelten können. Das Gesetz legtspezifische Anforderungen für Allzweck-KI-Modelle fest und schreibt vor, dass Anbieter technische Dokumentationen erstellen und Informationen über die für das Training verwendeten Inhalte offenlegen müssen. Diejenigen, die systemische Risiken darstellen, müssen Modellbewertungen durchlaufen, schwerwiegende Vorfälle rückverfolgen und sicherstellen, dass robuste Cybersicherheitsmaßnahmen vorhanden sind.DSGVO und KI: Herausforderungen für den DatenschutzSeit der Einführung im Jahr 2018 hat sich die Datenschutz-Grundverordnung schnell zu einem Maßstab im Bereich des Datenschutzes innerhalb der EU und darüber hinaus entwickelt. Die Verordnung legt fest, wie Unternehmen personenbezogene Daten erheben, verarbeiten und speichern, und ihre Einhaltung ist für Entwickler von KI-Systemen von entscheidender Bedeutung. Die Nichteinhaltung kann erhebliche finanzielle Strafen und einen Reputationsverlust nach sich ziehen.Im Mittelpunkt der DSGVO steht der Grundsatz der Datenminimierung. Das Prinzip besagt, dass die Menge der von einem Unternehmen gesammelten Daten nicht größer sein sollte als für bestimmte Zwecke erforderlich. Dies ist eine ziemlich anspruchsvolle Aufgabe für die KI, wenn man bedenkt, dass groß angelegte Datensätze im Allgemeinen für ein angemessenes maschinelles Lernen von entscheidender Bedeutung sind. Unternehmen müssen sich bewusst dafür entscheiden, so wenig personenbezogene Daten wie möglich zu erheben und mehr Wert auf Anonymisierung und Pseudonymisierung zu legen, um die Daten der Nutzer zu schützen und rechtliche Konsequenzen zu minimieren.Ein weiterer wichtiger Aspekt der DSGVO ist das „Recht auf Vergessenwerden“. Es stellt sicher, dass Einzelpersonen um jeden Preis die Löschung personenbezogener Daten verlangen können, einschließlich solcher, die möglicherweise zur Schulung von KI-Modellen verwendet wurden. Dies stellt eine Herausforderung für KI-Entwickler dar: Daten müssen nicht nur aus aktiven Datenbanken, sondern auch aus den Sicherungssystemen gelöscht werden. Da die Zahl der Anfragen zur Datenlöschung zunimmt, wird diese Anforderung noch komplexer, insbesondere bei Altsystemen, die keine einfache Datenlöschung ermöglichen.Unternehmen sollten darauf vorbereitet sein, verschiedene Anfragen von Einzelpersonen zu bearbeiten in Bezug auf Datenzugriff, Datenkorrektur sowie Einwände gegen Datenverarbeitung. Noch komplizierter wird es, wenn das KI-System eine verteilte Datenverarbeitung verwendet. Alles muss transparent sein und die Benutzer müssen Klarheit darüber haben, wie ihre Daten die KI-Entscheidungen beeinflussen.Die globalen Auswirkungen der DSGVODie DSGVO regelt zwar nicht ausdrücklich die Übermittlung personenbezogener Daten außerhalb der EU, stellt jedoch strenge Bedingungen an dieVerarbeitung und Übermittlung. Dies ist besonders wichtig für global agierende Unternehmen. Sie müssen angemessene Sicherheitsvorkehrungen für Datenübertragungen treffen. Das Urteil von 2020 in der Rechtssache Schrems II erschwerte die Datenübertragung in die Vereinigten Staaten, was zu einer genaueren Prüfung und einer Neubewertung der Übertragungsstrategien führte.Während die DSGVO heute nur ein wichtiger Maßstab für KI-Unternehmen in der EU ist, werden ihre Grundsätze weltweit schnell zur Norm. Unternehmen müssen nicht nur die jeweils geltenden Vorschriften kennen, sondern auch zukünftige Änderungen, die sich auf ihre Geschäftstätigkeit auswirken könnten. Die Integration von Datenschutz und Sicherheit in die Gestaltung von KI-Systemen schafft Vertrauen und minimiert das Risiko zukünftiger Bußgelder aufgrund möglicher Verstöße. Die Nichteinhaltung dieser Vorschriften wird mit erheblichen Strafen geahndet: Die Geldbußen können bis zu 10 Millionen Euro oder 2 % des weltweiten Umsatzes betragen.Nationale Unterschiede bei KI-VorschriftenWährend das EU-KI-Gesetz darauf abzielt, die KI-Vorschriften in ganz Europa zu vereinheitlichen, können einzelne Mitgliedstaaten ihre eigenen Richtlinien einführen. Deutschland ist dabei eines der proaktivsten Länder. Die Datenschutzkonferenz (DSK) in Deutschland gab spezifische Leitlinien heraus, die sich auf Large Language Models (LLMs) und andere KI-Systeme konzentrieren. Diese Regeln sind strenger als der EU-weite Rahmen und betonen die Einhaltung der DSGVO, insbesondere in Bezug auf Datenschutz und Transparenz.Die deutsche KI-Richtlinie verlangt, dass Unternehmen, die KI zur Verarbeitung personenbezogener Daten einsetzen, insbesondere in sensiblen Bereichen wie Gesundheit und Personalwesen, die gesetzlichen Anforderungen einhalten und Transparenz bieten müssen. Die Benutzer müssen das Recht haben, die Datennutzung nachzuverfolgen und die Verwendung ihrer personenbezogenen Daten für das KI-Training abzulehnen. Automatisierte Entscheidungen, die sich erheblich auf Einzelpersonen auswirken, müssen von Menschen überwacht werden, um Verstöße gegen DSGVO-Artikel 22 zu vermeiden. Unternehmen müssen außerdem Datenschutz-Folgenabschätzungen durchführen und Datenschutzbeauftragte hinzuziehen, um sicherzustellen, dass KI-Systeme korrekt, nachvollziehbar und neutral sind.Für Unternehmen, die in mehreren EU-Ländern tätig sind, bedeuten diese nationalen Unterschiede, dass die Einhaltung der Vorschriften einen maßgeschneiderten Ansatz erfordert. Deutschlands Fokus auf Datenschutz und Regulierung zeigt, dass Unternehmen wachsam bleiben und Rechtsexperten konsultieren müssen, um sich in den EU-weiten und länderspezifischen KI-Vorschriften zurechtzufinden.Gcore macht aus Compliance-Herausforderungen ChancenAuch wenn die Einhaltung des KI-Gesetzes und der DSGVO zunächst überwältigend erscheinen mag, bringen sie für ein Unternehmen auch etwas Wertvolleres mit sich: die Chance, bei Transparenz, Fairness und Ethik im Rahmen von KI-Systemen eine Vorreiterrolle einzunehmen und sich gleichzeitig zu einem Vorreiter für verantwortungsvolle KI-Innovationen zu entwickeln. Die Einhaltung der strengen EU-Vorschriften könnte zu einem Wettbewerbsvorteil werden und Verbrauchern und Partnern signalisieren, dass das Unternehmen ethischen und sicheren KI-Systemen Priorität einräumt.Unternehmen können den Compliance-Prozess vereinfachen, indem sie mit Dienstleistern zusammenarbeiten, die maßgeschneiderte Lösungen für das KI-Datenmanagement anbieten. Gcore bietet beispielsweise eine Reihe von Cloud-Lösungen an, die Unternehmen dabei unterstützt, sich nahtlos im komplexen EU-Regulierungsumfeld zurechtzufinden, auch im Bereich KI. Durch die Nutzung lokaler Rechenzentren, die von Gcore bereitgestellt werden, können Unternehmen ihre Daten innerhalb der EU speichern und dabei die DSGVO und das kommende EU-KI-Gesetz einhalten. Für weltweit tätige Unternehmen macht die Präsenz von Gcore in über 95 Ländern die Einhaltung von Vorschriften einfach. Wir erzählen Ihnen gerne mehr dazu.Kostenlose Beratung anfordern

Einführung von Gcore Inference at the Edge: KI-Apps näher an Ihre Benutzer bringen, um blitzschnelle Reaktionen zu ermöglichen

Wir freuen uns, Gcore Inference at the Edge vorzustellen. Diese neue Lösung reduziert die Latenzzeit Ihrer ML-Modellausgabe und verbessert die Leistung von KI-gestützten Anwendungen. Es basiert auf Gcores globalem Netzwerk von über 180 Edge Points of Presence (PoPs), die von NVIDIA L40S GPUs angetrieben werden. Inference at the Edge kommt insbesondere latenzempfindlichen Echtzeitanwendungen zugute, darunter generative KI und Objekterkennung. Inference at the Edge befindet sich derzeit in der Beta-Phase und kann kostenlos genutzt werden. Lesen Sie weiter, um mehr über die Funktionen der Lösung, Anwendungsfälle und die ersten Schritte zu erfahren.Was ist Gcore Inference at the Edge?Gcore Inference at the Edge ermöglicht es Ihnen, ML-Modelle an Edge-Punkten einzusetzen. Anycast-Endpunkte leiten Endbenutzeranfragen an das nächstgelegene laufende Modell weiter, um eine geringe Latenzzeit zu erreichen, was zu einem nahtlosen Benutzererlebnis führt.Die zugrundeliegende Infrastruktur muss nicht verwaltet, skaliert und überwacht werden; die Einrichtung erfolgt vollständig automatisiert auf unserer Seite. Sie erhalten also einen einzigen Endpunkt zur Integration in Ihre Anwendung.Inference at the Edge stützt sich auf drei Komponenten:Unser Netzwerk mit niedriger Latenz von über 180 Edge-PoPs in über 90 Ländern mit Smart Routing und einer durchschnittlichen Netzwerklatenz von 30 msNVIDIA L40S GPUs auf Gcore Edge PoPs eingesetztden Modellkatalog von Gcore, der beliebte, quelloffene ML-Grundmodelle wie Mistral 7B, Stable-Diffusion XL und LLaMA Pro 8B enthältWie funktioniert Gcore Inference at the Edge?Wir bieten Ihnen einen einzigen Endpunkt für Ihre Anwendungen. Wenn Endbenutzer auf diesen Endpunkt zugreifen, werden ihre Anfragen an die ihnen am nächsten gelegenen Edge-PoPs weitergeleitet.Hier ist ein Beispiel dafür, wie der Dienst für Endnutzer funktioniert:Abbildung 1: So funktioniert Inference at the EdgeEine Benutzeranfrage und ein Modellergebnis können auf zwei Arten behandelt werden:Standardabfrage-Ergebnisroute: Wenn ein Benutzer eine Anfrage sendet, bestimmt ein Edge-Knoten die Route zur nächsten verfügbaren Inferenzregion mit der geringsten Latenz.Alternative Abfrage-Ergebnisroute: Wenn die nächstgelegene Region nicht verfügbar ist, leitet der Edge-Knoten die Anfrage des Nutzers dann an die nächste Region weiter, die räumlich am nahsten zum Benutzer ist.Warum sollte man sich für Gcore Inference at the Edge entscheiden?Inference at the Edge bietet viele Vorteile für Entwickler von KI-Anwendungen, die die KI-Inferenz optimieren und die Benutzerfreundlichkeit verbessern möchten.Hohe Performance: Der Dienst beschleunigt die Durchlaufzeit einer Abfrage und einer Modellantwort durch das Netz auf durchschnittlich 30 ms.Skalierbarkeit: Skalieren Sie Ihr ML-Modell automatisch nach oben und unten, entweder in einer bestimmten Region oder in allen ausgewählten Regionen.Kosteneffizient: Sie zahlen nur für die Ressourcen, die Ihr ML-Modell nutzt. Legen Sie Grenzen für die automatische Skalierung fest, um zu kontrollieren, wie viele Ressourcen Ihre Modelle bei Spitzenlasten verwenden.Schnelle Markteinführung: Indem Sie das Infrastrukturmanagement an das Gcore-Team delegieren, sparen Ihre Entwickler wertvolle Zeit und können sich auf ihre Kernaufgaben konzentrieren.Einfach zu bedienen: Inference at the Edge bietet einen intuitiven Entwickler-Workflow für eine schnelle und rationelle Entwicklung und Bereitstellung.Unternehmenstauglich: Der Service bietet Ihnen Sicherheit mit integriertem DDoS-Schutz für Endpunkte und lokaler Datenverarbeitung, um den Schutz und die Souveränität Ihrer Daten zu gewährleisten.Anwendungsfälle für Inference at the EdgeInference at the Edge kann branchenübergreifend eingesetzt werden. Hier sind nur einige Beispiele für mögliche Anwendungsfälle:TechnologieGamingEinzelhandelMedien und EntertainmentGenerative KI-Anwendungen Chatbots und virtuelle Assistenten KI-Tools für Softwareentwickler DatenerweiterungGenerierung von KI-Inhalten und Karten Echtzeit-KI-Bot-Anpassung und Konversation Echtzeit-Analyse von Media-PlayernIntelligente Lebensmittelgeschäfte mit Self-Checkout und Merchandising Erstellung von Inhalten, Vorhersagen und Empfehlungen Virtuelle AnprobeInhaltsanalyse Automatisierte Transkription Echtzeit-ÜbersetzungErste SchritteGcore Inference at the Edge befindet sich noch in der Betaphase und ist auf Anfrage erhältlich. Wenn Sie es ausprobieren möchten, nehmen Sie Kontakt über unser Kontaktformular auf oder, wenn Sie bereits Gcore-Kunde sind, wenden Sie sich an Ihren Kundenbetreuer.Sobald Sie Zugang haben, können Sie unsere Produktdokumentation einsehen:Erstellen Sie ein KI-ModellHinzufügen und Konfigurieren einer RegistryAPI-Schlüssel erstellen und verwaltenVerwalten Sie Deplyments im Gcore-KundenportalFazitGcore Inference at the Edge ist eine leistungsstarke und effiziente Lösung für die Bereitstellung Ihrer ML-Modelle und die Verbesserung des Benutzererlebnisses. Sie bietet niedrige Latenzzeiten und einen hohen Durchsatz für Ihre ML-Modelle, integrierten DDoS-Schutz, gängige Basismodelle und andere Funktionen, die für produktionsreife KI-Inferenz am Netzwerkrand unerlässlich sind.Wenn Sie eine persönliche Beratung oder Hilfe zum Produkt wünschen, setzen Sie sich bitte mit uns in Verbindung.Erkunden Sie „Gcore Inference at the Edge”

Einführung des KI-Bildgenerators: ein kostenloses Tool zur Erstellung von Bildern anhand von Texteingaben

Wir freuen uns, die Einführung unseres generativen KI-Tools KI-Bildgenerator anzukündigen, mit dem Sie Bilder anhand von Texteingaben erstellen können. Die Nutzung ist kostenfrei und unbegrenzt für Nutzer, die auf der Gcore-Plattform registriert sind. Der KI-Bildgenerator wird durch unsere KI-IPU-Infrastruktur angetrieben.So nutzen Sie den KI-BildgeneratorDer KI-Bildgenerator von Gcore nimmt Ihre Texteingaben und kreiert beeindruckende, realistische KI-Bilder anhand Ihrer Eingaben. Sie können diese Bilder nach Belieben für geschäftliche oder persönliche Zwecke nutzen.Das Tool ist in die Gcore-Cloud-Plattform eingebaut. So können Sie das Tool nutzen:Melden Sie sich bei der Gcore-Cloud-Plattform an. Wenn Sie noch kein Konto haben, registrieren Sie sich mit Ihrer E-Mail-Adresse oder mit Ihrem Google- oder GitHub-Konto. Rechnungsdaten sind nicht erforderlich.Wählen Sie den Abschnitt Bildgenerator im vertikalen Menü auf der linken Seite. Sie sehen dann das folgende Fenster:Abbildung 1: die Benutzeroberfläche des KI-BildgeneratorsGeben Sie unten die Aufforderung im grauen Feld Eingabe ein und klicken Sie dann auf die Zurück-Taste. Der KI-Bildgenerator erstellt daraufhin ein Bild anhand der Eingabe.Um das Bild zu speichern, klicken Sie mit der rechten Maustaste darauf und wählen Sie die OptionBild speichern als….Hier sind einige Beispiele für die erstellten Bilder aus dem KI-Bildgenerator:Abbildung 2: durch den KI-Bildgenerator erstellte BilderUm relevantere Ergebnisse zu erzielen, verwenden Sie spezifischere und detailliertere Texteingaben. Anstatt die Aufforderung „eine futuristische Stadt“ einzugeben, könnten Sie beispielsweise den folgenden Text verwenden: „eine pinke, futuristische und verspielte Stadt in den Wolken, wo Luftschiffe an haushohen Plattformen andocken und Wolken als Straßen dienen, sehr detailliert dargestellt“.Die Technologie unter der HaubeDer KI-Bildgenerator wird durch die KI-IPU-Infrastruktur angetrieben, die speziell für KI- und ML-Aufgaben entwickelt wurde. Diese KI-Cloud-Infrastruktur auf Grundlage der Graphcore Bow IPU POD Scale-Out-Cluster bietet eine unkomplizierte Möglichkeit, um modernes AI/ML-Computing auf Abruf auch ohne die Bereitstellung von Hardware vor Ort oder den Aufbau einer KI-Infrastruktur von Grund auf einzusetzen.Zur Entwicklung des Bildgenerators wurde das vorgefertigte GenAI-Modell von Openjourney eingesetzt und genau abgestimmt, damit der Bildgenerator genauere Ergebnisse erzielt.RoadmapWir nehmen aktiv Verbesserungen an unserem KI-Bildgenerator vor. Die folgenden Funktionen werden demnächst hinzugefügt:Erweiterte BildbearbeitungBilderzeugung basierend auf einem NutzerbildErweiterte KontrollfunktionalitätIntegration mit externen Diensten über APIJetzt loslegen!Um dieses Tool zu nutzen, melden Sie sich bei der Gcore-Cloud-Plattform an oder registieren Sie sich, wenn Sie noch kein Benutzerkonto haben. Gehen Sie dann zum Abschnitt Bildgenerator im vertikalen Menü auf der linken Seite — und viel Spaß!Weitere Informationen über generative KI und inwiefern die KI-IPU-Infrastruktur durch diese unterstützt wird, finden Sie in diesem Artikel in unserem Blog.

Gcore startet AI-Cloud auf Basis von Graphcore IPU in Manassas, US

Wir freuen uns, die Erweiterung der Gcore AI Cloud angetrieben von Graphcore Bow IPU zu unserem Rechenzentrum in Manassas, Virginia, bekannt zu geben. Manassas liegt strategisch günstig in der Nähe von Washington DC und befindet sich im Herzen der Eastern Seaboard-Region der USA, einem Zentrum der technischen Innovation. Die AI Cloud bietet virtuelle vPODs mit verschiedenen Konfigurationen, die sich für die Ausführung aller Arten von KI/ML-Workloads eignen – auch für die besonders anspruchsvollen.Was ist die Grundlage der Infrastruktur?Der AI-Cluster basiert auf dem GraphcoreBow Pod64, ein IPU-System, das mehrere Benutzer und verschiedene KI-Workloads über virtuelle vPODs unterstützt. Der Bow Pod64 enthält 94.208 IPU-Kerne und liefert 22,4 petaFLOPS an Gesamtrechenleistung. Diese Fähigkeiten ermöglichen es uns, leistungsstarkes KI-Computing für Training und Inferenz zu liefern, so dass unsere Kunden ihre KI/ML-Modelle in der Cloud und am Edge entwickeln und einsetzen können.Bow Pod ist mit allen gängigen ML-Frameworks kompatibel, darunter TensorFlow, PyTorch und Paddle Paddle, sowie mit Cloud-nativen Anwendungen wie Kubernetes, Prometheus und Grafana.Virtuelle vPOD-Konfigurationen von ManassasHier sind die virtuellen vPOD-Konfigurationen, die wir am neuen Standort in Manassas anbieten:ProduktInstanzkonfigurationAnzahl der IPUsPreis pro StundeBOW-vPOD460 vCPU / 116 GB RAM / 1100 GB NVMe (ephemer) / 100 Gbit/s-Verbindung13,68 $BOW-vPOD16120 vCPU / 232 GB RAM / 2200 GB NVMe (ephemer) / 100 Gbit/s-Verbindung1613,70 $BOW-vPOD16240 vCPU / 464 GB RAM / 4400 GB NVMe (ephemer) / 100 Gbit/s-Verbindung1615,80 $BOW-vPOD64240 vCPU / 464 GB RAM / 4400 GB NVMe (ephemer) / 100 Gbit/s-Verbindung6464,30 $Alle Konfigurationen sind jetzt verfügbar über unsere Cloud-Plattform.Sie können vPOD4 auch kostenlos für 24 Stunden testen. Um die Testversion zu erhalten, kontaktieren Sie unser Vertriebsteam.Was ist ein virtueller vPOD?Ein virtueller vPOD ist eine Variante, bei der ein Poplar®-Server – ein Server, der Bow IPU-Server in einem Cluster verwaltet – auf einer virtuellen Maschine eingesetzt wird. Dies steht im Gegensatz zu einem dedizierten vPOD, bei dem ein Poplar®-Server auf einem dedizierten Bare-Metal-Server eingesetzt wird.Ein virtueller vPOD bietet direkten Zugriff auf einen Host-Server und eine schnelle Verbindung zu physischen IPU-Beschleunigern. Damit bietet es eine kostengünstige Lösung für alle, die schnellen und dynamischen Zugriff auf IPU-Rechenleistung benötigen. Sie können virtuelle vPODs in nur 5 Minuten bereitstellen, verglichen mit 15 Minuten für dedizierte physische vPODs.Vorteile von virtuellen vPODsMit virtuellen vPODs können Sie:Setzen Sie Ihre Entwicklungsumgebung nahtlos um.Installieren und führen Sie Code blitzschnell aus.Verbessern Sie Ihre Erfahrung mit beliebten ML-Frameworks wie TensorFlow, PyTorch und Keras.Nutzen Sie ephemeren Speicher für zustandslose Workloads.Verwenden Sie externe Volumes, um sich mit externem Blockspeicher zu verbinden und neue Datenvolumes hinzuzufügen.Verwenden Sie den Suspendierungsmodus, um Ihren Cluster anzuhalten, was für unvorhersehbare Workloads, Ressourcenmanagement und Kostenoptimierung nützlich ist. Sie können den Cluster in wenigen Minuten wieder aktivieren.Mehr erfahrenBesuchen Sie unsere AI IPU-Produktseite, um alle Funktionen und Vorteile unserer AI Cloud zu entdecken.Schauen Sie sich unser Webinar an und erfahren Sie, wie Sie mit IPUs KI-Modelle für verschiedene Anwendungen trainieren können.Schauen Sie sich unseren Blog an, um herauszufinden, wie die Gcore AI IPU Cloud Ihnen bei der Entwicklung, dem Training und der Inferenz von KI/ML helfen kann.

Start der NVIDIA H100 GPU mit 3,2 Tbps ConnectX-7 Karten in Luxemburg

Wir freuen uns, die baldige Verfügbarkeit der leistungsstarken NVIDIA H100 GPU-Beschleuniger mit ConnectX-7-Karten in unseren Rechenzentren in Luxemburg ankündigen zu können. Die ConnectX-7-Karten bieten eine beeindruckende Netzwerkbandbreite von 3,2 Tbps. Ausgestattet mit diesen intelligenten Adaptern verfügen die leistungsstärksten NVIDIA-GPUs über eine erstklassige KI-Architektur für das Trainieren, den Einsatz und die Bereitstellung von KI/ML-Modellen im großen Maßstab.Anwendungsfälle für ConnectX-7-KartenH100-GPUs mit ConnectX-7-Karten werden Teil des generativen AI-Clusters sein, das wir im September 2023 starten. Der Cluster umfasst Dutzende von Servern auf der Grundlage von NVIDIA A100 und H100 GPUs. Er bietet den erheblichen Leistungsschub, der für das Trainieren und die Inferenz großer KI/ML-Modelle, einschließlich der generativen KI, erforderlich ist.Mit ConnectX-7-Karten können Sie mehrere GPU-Instanzen miteinander verbinden, und erreichen so eine außergewöhnliche Leistung und Skalierbarkeit. Dies ist besonders nützlich für das Trainieren und den Einsatz umfangreicher Modelle sowie für den Aufbau skalierbarer Multi-GPU-Cluster für Inferenzen mit unvorhersehbaren Workloads.NVIDIA ConnectX-7 InfiniBand-AdapterDer NVIDIA ConnectX-7 Smart Host Channel Adapter bietet höchste Netzwerkleistung für GPU-intensive Workloads wie Natural Language Processing (NLP)-Anwendungen und Supercomputing. Basierend auf der NVIDIA Quantum-2 InfiniBand-Architektur bietet ConnectX-7 eine extrem niedrige Latenz, einen Durchsatz von 3,2 Tbps und innovative NVIDIA In-Network Computing Acceleration Engines für die zusätzliche Beschleunigung zur Verbesserung der Skalierbarkeit von Workloads.Die wichtigsten Merkmale von ConnectX-7:Beschleunigte softwaredefinierte NetzwerkeVerbesserte Sicherheit mit Inline-Verschlüsselung und -Entschlüsselung von TLS, IPsec und MACsecHohe Speicherleistung mit RDMA/RoCE, GPUDirect Storage und hardwarebasierten NVMe-oF Offload EnginesPräzise Zeitsynchronisierung für Anwendungen in Rechenzentren und zeitkritische InfrastrukturenJetzt loslegenNVIDIA-GPUs stellen die Leistung für unsere virtuellen Instanzen, Bare-Metal-Server und Managed Kubernetes-Arbeitsknoten bereit, die auf virtuellen und Bare-Metal-Instanzen basieren. Die KI-Infrastruktur von Gcore lässt sich nahtlos in MLOps-Plattformen wie UbiOps integrieren und rationalisiert die Arbeitsabläufe für maschinelles Lernen vom Experimentieren bis zur Bereitstellung. Sie können unsere AI GPU-Infrastruktur kostenlos testen und ihre Leistungsfähigkeit selbst erleben. Um Ihre kostenlose Testphase zu erhalten, füllen Sie dieses Formular aus und unser Vertriebsteam wird sich mit Ihnen in Verbindung setzen, um die Einzelheiten zu besprechen.Weitere Informationen über KI-Computing und den Beitrag von Gcore zur Branche finden Sie in unseren KI-Blogbeiträgen.

Gcore startet einen Cluster für generative KI in Luxemburg

Wir freuen uns, unser ehrgeiziges neues Projekt vorstellen zu können: den generativen KI-Cluster von Gcore, der auf zwanzig Servern mit NVIDIA GPUs basiert. Der Cluster bietet den erheblichen Leistungsschub, der für das Training und die Inferenz großer KI/ML-Modelle erforderlich ist, einschließlich solcher für generative KI. Als blühendes Zentrum der technologischen Innovation bietet Luxemburg den perfekten Rahmen für dieses monumentale Unterfangen.Unterstützt durch führende GPU-BeschleunigerDer generative KI-Cluster von Gcore besteht derzeit aus zwanzig Servern, die mit NVIDIA A100 Tensor Core GPUs ausgestattet sind. Der A100 ist ein leistungsstarker Beschleuniger, der bei den meisten KI-Trainingsaufgaben die Leistung der GPU-Konkurrenz übertrifft. Außerdem liefert er eine bis zu 100x schnellere KI-Trainingsleistung als moderne CPUs.Hier sehen Sie eine A100-basierte Serverkonfiguration:8x NVIDIA A100 SXM 80 GB2x Intel Xeon 84682 TB RAM8×3,84 TB NVMeInfiniBand 800 GbpsInfiniBand-Schnittstellen bieten direkte Hochgeschwindigkeits-GPU-Verbindungen, ideal für die Skalierung generativer KI-Workloads.Gcore GPU-Infrastruktur-TypenSie können wählen, wie Sie die Clusterkapazität als Teil Ihres bevorzugten Gcore-Dienstes nutzen möchten. Die NVIDIA A100 Grafikprozessoren treiben Folgendes an:Virtuelle InstanzenBare-Metal-ServerManaged Kubernetes basierend auf virtuellen InstanzenManaged Kubernetes auf Bare MetalDie Systeme von Gcore sind für die NVIDIA-Hardware optimiert, um Spitzenleistung zu gewährleisten.MLOps-ReadyUnser Setup lässt sich nahtlos in MLOps-Plattformen wie UbiOps integrieren und rationalisiert Ihre maschinellen Lernprozesse vom Experimentieren bis zur Bereitstellung. So können Sie alle Ihre Modelle an einem Ort verwalten, mit Versionskontrolle, Protokollierung, Auditing und Überwachung. Sie können die Nutzung und die Leistungskennzahlen Ihrer Modelle verfolgen und die erforderlichen Warnungen und Benachrichtigungen einstellen. Lassen Sie Ihre Daten für Sie arbeiten, nicht umgekehrt. Weitere Einzelheiten finden Sie unter unserer Ankündigung der Partnerschaft von Gcore, Graphcore und UbiOps.Gcores KI-Pläne für die ZukunftIn den kommenden Monaten werden wir den generativen KI-Cluster von Gcore um 25 A100 und 128 H100 GPU-basierte Server erweitern. Der H100 Tensor Core Grafikprozessor ist NVIDIAs neuester KI-Beschleuniger für Rechenzentren und liefert eine bis zu 4x schnellere KI-Trainingsleistung als der A100.Hier sehen Sie eine H100-basierte Serverkonfiguration:NVIDIA HGX H100 8-GPU SXM GPUs Montage2x Intel Xeon Platinum 8480+2 TB RAM8x 3,84 TB Enterprise NVMe RIInfiniBand 3.6 TbpsBleiben Sie dran für unsere kommende Global Intelligence Pipeline, die darauf ausgelegt ist, die Inferenz am Rande zu beschleunigen. Mit diesem Projekt überwinden wir die Grenzen zwischen der Datenerfassung und der Echtzeitanalyse und ermöglichen so intelligentere und schnellere Entscheidungen.Jetzt loslegenSie können unsere KI-GPU-Infrastruktur kostenlos testen. Um Ihre kostenlose Testphase zu erhalten, füllen Sie dieses Formular aus und unser Vertriebsteam wird sich mit Ihnen in Verbindung setzen, um die Einzelheiten zu besprechen.Um mehr darüber zu erfahren, wie GPUs generative KI vorantreiben, lesen Sie unseren Blogbeitrag.

Subscribe
to our newsletter

Get the latest industry trends, exclusive insights, and Gcore updates delivered straight to your inbox.