Neuer Radar Report: DDoS - Trends entdecken, Schutz optimieren.Zum Report

Produkte

Lösungen

Ressourcen

Partner

Warum Gcore

  1. Home
  2. Blog
  3. Wie wir unsere Anwendungen auf die Micro-Frontend-Architektur bei Gcore migrieren

Wie wir unsere Anwendungen auf die Micro-Frontend-Architektur bei Gcore migrieren

  • Von Gcore
  • June 8, 2023
  • 7 Min.
Wie wir unsere Anwendungen auf die Micro-Frontend-Architektur bei Gcore migrieren

Bei Gcore sind uns die Entwicklungen in der Technologiewelt nicht fremd. Wir haben vor kurzem ein neues Projekt gestartet: die Migration unserer grĂ¶ĂŸtenteils Angular-basierten Anwendungen auf eine Micro-Frontend-Architektur. Aufgrund unserer umfangreichen Nutzung von Angular haben wir uns fĂŒr Module Federation als Strategie fĂŒr diesen Übergang entschieden.

Unsere Ziele

Als wir unsere Migrationsreise begannen, legten wir klare Ziele fest. Unsere Ambitionen beschrĂ€nkten sich nicht nur auf die Modernisierung unseres Technologie-Stacks, sondern zielten auch darauf ab, die Benutzererfahrung und unseren Entwicklungsprozess spĂŒrbar zu verbessern.

  • Ladezeit reduzieren: Unsere erste PrioritĂ€t bestand darin, die Leistung unserer Anwendungen durch Reduzierung der Ladezeit zu verbessern. Schnellere Ladezeiten fĂŒhren direkt zu einer verbesserten Benutzerzufriedenheit und -einbindung.
  • Module wiederverwenden: Unser Ziel war es, einen effizienteren Entwicklungsprozess zu etablieren, indem wir Module in verschiedenen Anwendungen wiederverwenden. Das minimiert nicht nur die Redundanz, sondern beschleunigt auch den Entwicklungszyklus und verbessert die Wartbarkeit.
  • Subdomains zugunsten von Pfadnamen aufgeben: Wir wollten auf die Verwendung von Subdomains verzichten (natĂŒrlich nicht vollstĂ€ndig) und uns stattdessen fĂŒr Pfadnamen entscheiden. Diese Änderung wird uns eine genauere Kontrolle ĂŒber das Routing ermöglichen und eine nahtlosere Benutzererfahrung bieten.
  • Widget-Skript-Initialisierung optimieren: Und schließlich verfĂŒgen wir ĂŒber ein Widget-Skript, das bei jeder Anwendung initialisiert wird. Wir haben beschlossen, dass sich das Ă€ndern muss. Anstatt das Skript mit jeder App einzeln zu laden, was wertvolle Zeit verschwendet, wollten wir, dass dieser Vorgang nur einmal beim Laden unserer Shell-Anwendung durchgefĂŒhrt wird.

Diese Ziele leiteten unsere Migration zur Micro-Frontend-Architektur. In unserer Geschichte geht es nicht nur um ein technologisches Upgrade, sondern auch um das Streben nach einer effizienteren, benutzerfreundlicheren digitalen Umgebung.

Module Federation

Bevor wir nĂ€her auf unsere Reise eingehen, wollen wir etwas Licht auf das entscheidende, von uns eingesetzte Tool werfen – Module Federation. Module Federation, eine in Webpack 5 eingefĂŒhrte Funktion, ermöglicht separate Builds zur Bildung verschiedener „Mikro-Frontends“, die nahtlos zusammenarbeiten können.

Sie ermöglicht verschiedenen JavaScript-Anwendungen, Code aus einem anderen Build dynamisch auszufĂŒhren und dabei im Wesentlichen Bibliotheken oder Komponenten gemeinsam zu nutzen. Diese Architektur fördert die Wiederverwendung von Code, optimiert die Ladezeiten und steigert die Skalierbarkeit der Anwendung erheblich.

Mit einem besseren VerstĂ€ndnis fĂŒr Module Federation können wir nun untersuchen, welche entscheidende Rolle es in unserem Migrationsprozess gespielt hat.

ngx-build-plus

Im Angular-Ökosystem hat ngx-build-plus die Implementierung von Module Federation grundlegend verĂ€ndert. Es handelt sich um eine Erweiterung fĂŒr die Angular CLI, die es uns ermöglicht, die Build-Konfiguration zu optimieren, ohne die gesamte Webpack-Konfiguration Ă€ndern zu mĂŒssen.

Wir können gemeinsame AbhĂ€ngigkeiten definieren und so sicherstellen, dass sie nur einmal im endgĂŒltigen Bundle enthalten sind. Im Folgenden finden Sie ein Beispiel fĂŒr eine Konfiguration, in der wir Angular-Bibliotheken, RXJS und einige benutzerdefinierte Gcore-Bibliotheken freigegeben haben:

hared: share({ 	'@angular/core': { singleton: true, requiredVersion: '^14.0.0' }, 	'@angular/common': { singleton: true, requiredVersion: '^14.0.0' }, 	'@angular/router': { singleton: true, requiredVersion: '^14.0.0' }, 	rxjs: { singleton: true, requiredVersion: '>=7.1.0' }, 	'@gcore/my-messages': {     	singleton: true,     	strictVersion: false,     	packageName: '@gcore/my-messages', 	}, 	'@gcore/my-modules': {     	singleton: true,     	strictVersion: true,     	requiredVersion: '^1.0.0',     	packageName: '@gcore/my-modules', 	}, 	'@gcore/ui-kit': { singleton: true, requiredVersion: '^10.2.0' }, }),

So, da habt Ihr es, Leute! Holen Sie sich ngx-build-plus, richten Sie Module Federation ein, konfigurieren Sie Ihre gemeinsamen AbhĂ€ngigkeiten und voilĂ , Sie sind ein Micro-Frontend-Meister. Herzlichen GlĂŒckwunsch!

Oh, warten Sie


Kommunikation zwischen Anwendungen

Mit zunehmender KomplexitĂ€t unserer Anwendungen wuchs auch der Bedarf an einer effizienten Kommunikation zwischen diesen. ZunĂ€chst hatten wir auf jeder Anwendungsseite ein Widget-Skript geladen und die Kommunikation zwischen der Anwendung und dem Widget wurde ĂŒber das Fensterobjekt orchestriert. Es funktionierte, und uns wurde klar, dass wir es noch weiter optimieren konnten.

Geben Sie @gcore/my-messages ein, unseren ureigenen Ritter in glĂ€nzender RĂŒstung. Es handelt sich um einen gemeinsam nutzbaren Dienst. Es Ă€hnelt eher einem Nachrichtenbus, außer dass es sich nicht um einen Bus handelt, sondern um einen von rxjs unterstĂŒtzten Dienst.

Aber bevor wir uns zu Metaphern hinreißen lassen, wollen wir eines klarstellen: Dieser Dienst kennt Widgets und Anwendungen glĂŒcklicherweise nicht. Es handelt sich lediglich um Schnittstellen von Nachrichten und der Logik zum Senden dieser Nachrichten. GrundsĂ€tzlich handelt es sich bei diesen Schnittstellen um Konventionen. Dadurch bleiben sie schlank, effizient und unvoreingenommen, was sie zu einem perfekten Vermittler fĂŒr die Kommunikation unserer Anwendungen macht.

Und es geht noch weiter.

Wo stehe ich? Mangel an Selbstwahrnehmung der Statiker

Statiker sind sich ihrer Umgebung glĂŒcklicherweise nicht bewusst, und dieser Mangel an Selbstwahrnehmung kann echte Probleme verursachen.

Um diese existenzielle Krise zu lösen, haben wir einen Mechanismus geschaffen, der jede Micro-Frontend-App ĂŒber ihre eigene Herkunft informieren kann. Es hĂ€tten verschiedene Lösungen eingefĂŒhrt werden können, aber wir entschieden uns fĂŒr my-modules.

Stellen Sie sich @gcore/my-modules als ReisefĂŒhrer vor. Dieser wird in die Shell-Anwendung eingefĂŒgt und enthĂ€lt alle wesentlichen Informationen ĂŒber die Micro-Frontend-Apps. Dieses Umgebung erkennende Modul wird wĂ€hrend der Shell-CI/CD-Prozesse konfiguriert. Wodurch es dynamisch und dennoch zuverlĂ€ssig ist und wĂ€hrend der Shell-Initialisierung gefĂŒllt wird. So kann es jederzeit nach Ihren WĂŒnschen konfiguriert werden.

Über Module Federation kann my-modules gemeinsam genutzt werden, sodass andere Apps bei Bedarf auf diese wichtigen Informationen zugreifen können. Beachten Sie, dass Sie jedes Mal, wenn Sie eine neue Micro-Frontend-Anwendung hinzufĂŒgen, die ĂŒber Ihre Shell bereitgestellt werden soll, my-modules aktualisieren und richtig konfigurieren mĂŒssen. So gehen keine Anwendungen mehr verloren, jeder weiß, wo sie sich befinden.

Lokale Entwicklung (MF-App als Standalone)

Lassen Sie uns nun ĂŒber etwas sprechen, das Sie noch nicht gesehen haben – @gcore/my-panel. Sie haben es vielleicht noch nicht in der Konfiguration des Module Federation-Webpacks gesehen, aber es war die ganze Zeit da und hat unermĂŒdlich hinter den Kulissen gearbeitet.

Die Rolle von @gcore/my-panel besteht darin, uns bei der Initialisierung des Widgets zu helfen. Es verarbeitet Widget-Nachrichten, sendet sie ĂŒber Widget-Nachrichten und macht auch das Gegenteil. Und das ist noch nicht alles; @gcore/my-panel dient einer weiteren wichtigen Rolle wĂ€hrend der lokalen Entwicklung und ermöglicht es uns, unsere Micro-Frontend-Anwendung als eigenstĂ€ndige Anwendung auszufĂŒhren.

Also, wie funktioniert es? Nun, in einer Micro-Frontend-Anwendung sollten Sie es, Àhnlich wie in der Shell-Anwendung, wÀhrend des Initialisierungsprozesses initialisieren. So gehen wir in unserem app.init.ts vor::

export async function initApp( appConfigService: AppConfigService, myModulesService: MyModulesService, myPanelService: MyPanelService, ): Promise<unknown> { await appConfigService.loadConfig(); fillMyModulesService(myModulesService, appConfigService); return myPanelService.init(appConfigService.config.widgetUrl); }

Auf diese Weise ist es uns gelungen, @gcore/my-panel zu integrieren und effektiv in unseren Anwendungen zu nutzen, was es zu einem unverzichtbaren Bestandteil unserer Migration zu einer Micro-Frontend-Architektur macht.

Wenn Sie genau hinschauen, werden Sie in der Tat einen weiteren SchlĂŒsselvorgang sehen, der in unserer Funktion initApp stattfindet. Wir fĂŒllen unser myModulesService mit Einstellungen aus unserem appConfigService. Mit diesem wichtigen Schritt wird sichergestellt, dass unsere Widgets ordnungsgemĂ€ĂŸ mit der erforderlichen Konfiguration ausgestattet sind, um in unseren Anwendungen optimal zu funktionieren. Sie können also in Ihrer MF-Anwendung auf der Ebene app.module APP_INITIALIZER bereitstellen:

export function initApp(myPanelService: myPanelService): any { 	return async (): Promise<void> => {     	await myPanelService.init(); 	}; }

Sie fragen sich vielleicht: „Wo ist die umfangreiche Konfiguration, die wir normalerweise in initApp von init.app.ts sehen können?“ Da sind Sie nicht allein! Der Ansatz hat sich tatsĂ€chlich geĂ€ndert. Lassen Sie uns das analysieren.

Initialisierung der Micro-Frontend-Anwendung

Wenn wir unsere Anwendung auf einer DomĂ€ne wie localhost:4001 bereitstellen, verhĂ€lt sie sich genau wie eine Standard-Angular-Anwendung – dank der Magie von myPanelService.init(). Diese Funktion ermöglicht es Entwicklern, in einer vertrauten Umgebung mit ihrer Anwendung zu arbeiten. Betrachten wir diese Anwendung als Mfe1App, die auf localhost:4001 gehostet wird.

Interessant wird es jedoch, wenn wir versuchen, unsere Micro-Frontend-Anwendung in unsere Shell-Anwendung zu laden. Webpack besucht localhost:4001/remoteEntry.js, um das Micro-Frontend-Modul abzurufen. Dies ist in app-routing.module.ts unserer Shell definiert:

{ 	path: 'mfe1App', 	loadChildren: () =>     	loadRemoteModule({         	type: 'manifest',         	remoteName: 'mfe1App',         	exposedModule: './Module',     	}).then((m) => m.Mfe1AppModule), },

Und in unserer mfe.manifest.json:

{   "mfe1App": "<http://localhost:4001/remoteEntry.js>" }

Mit unserer Webpack-Konfiguration von Mfe1App steht nur ein Modul zur VerfĂŒgung:

new webpack.container.ModuleFederationPlugin({ 	name: 'mfe1App', 	filename: 'remoteEntry.js', 	exposes: {     	'./Module': './src/app/mfe1App/mfe1App.module.ts', 	}, 	library: {     	type: 'module', 	}, }),

Diese Konfiguration stellt das Modul mfe1App mit der Datei mfe1App.module.ts als Einstiegspunkt und der Datei remoteEntry.js als Datei zum Laden des Moduls bereit. Die Eigenschaft Type wird auf Modul gesetzt, um anzuzeigen, dass das Modul ES-Module verwendet. Und deshalb ist initApp unserer Mfe1App so prĂ€gnant – wir initialisieren alles in diesem Modul. DafĂŒr verwenden wir Guards.

Betrachten Sie initMfe1App.guard.ts:

// imports @Injectable() export class InitMfe1AppGuard implements CanActivate { constructor( private myMessagesService: myMessagesService, private configService: AppConfigService, private authService: AuthService, private widgetServive: WidgetService, private mfe1AppService: mfe1AppService, //... @Optional() private myModulesService: myModulesService, ) {} public canActivate( 	route: ActivatedRouteSnapshot, 	state: RouterStateSnapshot, ): Observable<boolean | UrlTree> | Promise<boolean | UrlTree> | boolean | UrlTree { 	this.mfe1AppService.createPrimaryUrlFromRouteSnapshot(route); 	if (this.widgetServive.loaded) {     	return true; 	} 	return this.myMessagesService.messages$.pipe(     	filter((message: WMessage): message is WMessageWidgetLoaded | WGlobalConfigChanged => {         	if (             	checkMyMessageType(message, W_MESSAGE_TYPE.GLOBAL_CONFIG_CHANGED) ||             	checkMyMessageType(message, W_MESSAGE_TYPE.WIDGET_LOADED)         	) {             	return true;         	} else {             	this.myMessagesService.sendMessage({ type: W_MESSAGE_TYPE.GLOBAL_CONFIG_REQUEST });             	return false;         	}     	}),     	take(1),     	tap((message) => this.widgetService.load(message.data)),     	//...     	mapTo(true),     	timeout(1000 * 10), 	); }

Dieser Guard ersetzt das gewohnte APP_INITIALIZER Token und bietet ein neues Zuhause fĂŒr die gesamte Initialisierungslogik.

Sie haben es getan! Sie können Ihre Micro-Frontend-Anwendungen starten. FĂŒr Ihre MF-App ist also APP_INITIALIZERfĂŒr die eigenstĂ€ndige Initialisierung und init.guard fĂŒr das MF-Module. Dieser neue Ansatz rationalisiert den Initialisierungsprozess und bietet Entwicklern ein vertrauteres, Angular-Ă€hnliches Erlebnis. Je mehr sich die Dinge Ă€ndern, desto mehr bleiben sie wie sie sind, oder?

Aber wie steht es, wenn etwas schief geht?

providedIn: ‚root‘ ist nicht mehr so freundlich

Wenn Sie Ihre Micro-Frontend-Reise beginnen, kann es zu Turbulenzen kommen, insbesondere wenn Ihre Anwendung aufgrund von Injection-Konflikten nicht so reibungslos startet. Dies kann passieren, weil die meisten Ihrer Anbieter in ‚root‘ bereitgestellt wurden, einer beliebten Technik, die im Angular-Bereich weit verbreitet ist.

Auch wenn dieser Ansatz im Allgemeinen immer noch eine gute Praxis ist, kann er in vielen FĂ€llen fĂŒr Ihre Micro-Frontend-Apps weniger geeignet sein. Insbesondere wenn einige Ihrer Dienste von anderen Diensten und Konfigurationen abhĂ€ngig sind, die jetzt im App-Init-Guard initialisiert werden, sollten Sie sie auf der Ebene der Micro-Frontend-Anwendung bereitstellen.

Davon abgesehen kann ProvideIn: ‚root‘ immer noch eine praktikable Wahl fĂŒr globale, nicht konfigurierbare oder wirklich globale Dienste sein. Sie sollten jedoch Ihre analytischen FĂ€higkeiten nutzen, um Dienstleistungen dort bereitzustellen, wo sie wirklich benötigt werden.

Vielleicht ist es an der Zeit fĂŒr eine kleine Umstrukturierung – erwĂ€gen Sie, einige dieser globalen Hilfsdienste lokal zu organisieren und sie direkt dort in Komponenten einzubinden, wo sie benötigt werden. Dieser Wandel kann die ModularitĂ€t und Wartbarkeit Ihrer Anwendung verbessern und sie robuster und einfacher navigierbar machen.

Fazit

Die Reise zu einer Mikro-Frontend-Architektur bei Gcore war voller einzigartiger Herausforderungen. Durch diesen Prozess haben wir eine stÀrkere und flexiblere Grundlage geschaffen, die es den Teams ermöglicht, sich auf die Entwicklung der bestmöglichen Anwendungen zu konzentrieren.

In einer Welt der Mikro-Frontends mĂŒssen Teams Änderungen aus gemeinsam genutzten Bibliotheken nur dann ĂŒbernehmen, wenn sie ihren Anwendungen direkt zugute kommen. Das bedeutet weniger Unterbrechungen und mehr Zeit fĂŒr Innovation. Diese Freiheit erfordert jedoch eine klare und vereinbarte Integrationsstrategie, um die KohĂ€renz zwischen verschiedenen Anwendungen aufrechtzuerhalten und die HĂ€ufigkeit von Aktualisierungen zu reduzieren.

Unsere Erfahrung zeigt, dass es beim Übergang zu einer Micro-Frontend-Architektur nicht nur um die Überwindung technischer HĂŒrden geht. Es ist ein Sprung hin zu einer modulareren, effizienteren und skalierbareren Art, Frontends zu erstellen.

Es ist wichtig zu beachten, dass die Micro-Frontend-Architektur zwar immer beliebter wird, es sich jedoch nicht um eine Einheitslösung handelt. Genau wie wir sollten Sie die spezifischen Anforderungen Ihrer Situation berĂŒcksichtigen und die Vor- und Nachteile abwĂ€gen, bevor Sie den Schritt wagen. Nur weil es der neue Trend ist, bedeutet das nicht unbedingt, dass es auch fĂŒr Ihr Projekt oder Ihre Organisation geeignet ist.

Viel GlĂŒck!

Ähnliche Artikel

Gcore und Northern Data Group arbeiten zusammen, um den globalen Einsatz von KI zu verÀndern

Gcore und Northern Data Group schlagen gemeinsam ein neues Kapitel der KI fĂŒr Unternehmen auf. Durch die Kombination von Hochleistungsinfrastruktur und intelligenter Software wird die kommerzielle und technologische Partnerschaft die skalierbare Bereitstellung von KI-Anwendungen unabhĂ€ngig vom Standort der Nutzer erheblich erleichtern. Im Mittelpunkt dieser aufregenden neuen Partnerschaft steht eine gemeinsame Vision: eine globale, sichere KI-Infrastruktur mit geringer Latenz, die einfach zu nutzen und schnell einsatzbereit ist.Das Intelligence Delivery Network im ÜberblickDie Implementierung von KI beschleunigt sich, aber die Infrastruktur bleibt ein großer Engpass. Viele Unternehmen stoßen auf Hindernisse in Bezug auf Latenz, Compliance und Skalierbarkeit, insbesondere bei der Bereitstellung von Modellen in mehreren Regionen. Der herkömmliche Cloud-Ansatz fĂŒhrt oft gerade dann zu KomplexitĂ€t und Overhead, wenn Geschwindigkeit und Einfachheit am wichtigsten sind.An dieser Stelle kommt das Intelligence Delivery Network (IDN) ins Spiel.Das IDN ist ein global verteiltes KI-Netzwerk, das entwickelt wurde, um Inferenzen am Edge zu erleichtern. Es kombiniert die hochmoderne Infrastruktur von Northern Data mit Gcore Everywhere Inference, um skalierbare, hochleistungsfĂ€hige KI an 180 Standorten weltweit bereitzustellen.Durch die Verlagerung der KI-Workloads nĂ€her zu den Endnutzern reduziert IDN die Latenzzeiten und verbessert die ReaktionsfĂ€higkeit â€“ ohne Kompromisse bei Sicherheit oder Compliance. Die georeferenzierte, geobalancierte Architektur gewĂ€hrleistet Ausfallsicherheit und Datenlokalisierung bei gleichzeitiger Minimierung der BereitstellungskomplexitĂ€t.Ein vollstĂ€ndiges Toolkit zur Umsetzung der KIDas IDN ist ein vollstĂ€ndiges KI-Implementierungs-Toolkit, das auf der Cloud-nativen Plattform von Gcore basiert. Die Lösung bietet einen vertikal integrierten Stack, der auf Geschwindigkeit, FlexibilitĂ€t und Skalierbarkeit ausgelegt ist. Die wichtigsten Komponenten sindManaged Kubernetes fĂŒr die OrchestrierungEine Container-basierte Deployment Engine (Docker)Eine umfangreiche Modellbibliothek, die Open-Source- und benutzerdefinierte Modelle unterstĂŒtztEverywhere Inferenz, die Software von Gcore fĂŒr die Verteilung von Inferenzen ĂŒber globale Edge-Points of PresenceDieses Toolset ermöglicht die schnelle und einfache Bereitstellung von KI-Workloads â€“ mit integrierter Skalierung, Ressourcenverwaltung und Beobachtbarkeit. Die Partnerschaft ermöglicht auch den Zugang zu einem der weltweit grĂ¶ĂŸten flĂŒssig gekĂŒhlten GPU-Cluster, der KI-Teams die Leistung bietet, die sie fĂŒr anspruchsvolle Workloads benötigen.UnabhĂ€ngig davon, ob Sie ein neues KI-basiertes Produkt entwickeln oder ein bestehendes Modell skalieren möchten, bietet IDN einen klaren Weg von der Entwicklung bis zur Produktion.Auf Skalierbarkeit und Performance ausgelegtDie gemeinsame Lösung orientiert sich an den BedĂŒrfnissen von Unternehmenskunden. Sie unterstĂŒtzt mandantenfĂ€hige Bereitstellungen, lĂ€sst sich in vorhandene Cloud-native Tools integrieren und bietet hohe Leistung, ohne die Kontrolle zu verlieren. Die Kunden erhalten die FlexibilitĂ€t, die sie benötigen, um die Lösung ĂŒberall und jederzeit zu implementieren und gleichzeitig Sicherheit und Compliance auf Unternehmensebene zu gewĂ€hrleisten.Andre Reitenbach, CEO von Gcore, kommentiert: „Diese Zusammenarbeit unterstĂŒtzt die Mission von Gcore, die Welt ĂŒberall und jederzeit mit KI zu verbinden. Gemeinsam ermöglichen wir die nĂ€chste Generation von KI-Anwendungen mit niedriger Latenz und hoher Skalierbarkeit“.„Wir kombinieren die HPC- und Rechenzentrumsinfrastruktur-Expertise von Northern Data mit der Spezialisierung von Gcore auf Software-Innovation und -Entwicklung“, sagt Aroosh Thillainathan, GrĂŒnder und CEO der Northern Data Group. „Damit können wir unsere Vision beschleunigen, eine softwarebasierte KI-Infrastruktur ĂŒber ein weltweit verteiltes Computernetzwerk bereitzustellen. Wir befinden uns in einer entscheidenden Phase, in der sich der Einsatz von KI-Lösungen weiterentwickelt, und wir glauben, dass diese Partnerschaft ein wichtiger Bestandteil davon sein wird“.Intelligentere und schnellere KI-Implementierung mit Gcore und Northern Data GroupKI ist die neue Grundlage des digitalen GeschĂ€fts. Die globale Bereitstellung sollte kein Team von Infrastrukturingenieuren erfordern. Mit Gcore und der Northern Data Group erhalten Unternehmensteams die Tools und die UnterstĂŒtzung, die sie benötigen, um KI in großem Umfang und mit hoher Geschwindigkeit zu betreiben.Ganz gleich, was Sie und Ihre Teams mit KI erreichen wollen, das neue Intelligence Delivery Network hilft Ihnen, intelligenter und schneller zu arbeiten.Lesen Sie die vollstĂ€ndige Pressemitteilung

Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

KI-Entwicklungen erobern die Welt im Sturm. Unternehmen sollten sich aber bewusst sein, dass neue Chancen auch neue Herausforderungen mit sich bringen. Dem Impuls, die Technologie zu nutzen, mĂŒssen verantwortungsvolle Regel fĂŒr deren Einsatz vorausgehen. Nur so ist sichergestellt, dass durch KI weder Unternehmen noch ihre Kunden Risiken ausgesetzt sind. Um diesem Anspruch gerecht zu werden, entwickeln Regierungen weltweit Gesetze zur Regulierung von KI und Datennutzung.Sich in einem immer komplexeren Netz von internationalen Vorschriften zurechtzufinden, kann ĂŒberfordernd sein. Deshalb werden wir in diesem Artikel die Gesetzgebung einiger fĂŒhrender KI-Hubs auf allen Kontinenten aufschlĂŒsseln und Ihnen genau die Informationen zur VerfĂŒgung stellen, die Ihr Unternehmen benötigt, um KI optimal zu nutzen – sicher, legal und ethisch vertretbar.Falls Sie unsere frĂŒheren Blogs verpasst haben, in denen wir die KI-Vorschriften nach Regionen aufgeschlĂŒsselt haben, lesen Sie sie hier: Nordamerika, Lateinamerika, Europa, APAC, Naher Osten.Um die Zusammenfassung zu lesen, gehen Sie bitte zur Übersichtstabelle.Globale Trends der KI-RegulierungAuch wenn die Vorschriften je nach Standort variieren, haben sich 2024 weltweit mehrere ĂŒbergreifende Trends herauskristallisiert. Dazu zĂ€hlen eine Fokussierung auf Datenlokalisierung, risikoabhĂ€ngige Regulierung und eine Priorisierung des Datenschutzes. Sie sind zu allgemein anerkannten Leitlinien geworden. Das gemeinsame Ziel aller LĂ€nder ist es, Innovationen zu fördern und gleichzeitig die Verbraucher zu schĂŒtzen – auch wenn die einzelnen Regionen diese Ziele auf unterschiedliche Weise zu erreichen versuchen.Viele LĂ€nder folgen dem Beispiel der EU, deren KI-Gesetz ein mehrstufiges Regulierungsmodell je nach potenziellem Risikograd vorsieht. Bei diesem System gelten fĂŒr jede Risikostufe unterschiedliche Anforderungen: FĂŒr Hochrisikoanwendungen, die entweder die öffentliche Sicherheit oder BĂŒrgerrechte betreffen, gilt eine andere Sicherheitsstufe als fĂŒr allgemeine KI-Anwendungen, bei denen die Risiken weniger hoch eingestuft werden.Europa: strukturiert und stringentEuropa hat einige der strengsten KI-Vorschriften der Welt mit Schwerpunkt Datenschutz gemĂ€ĂŸ der DSGVO sowie dem neuen risikoabhĂ€ngigen KI-Gesetz. Dieser Ansatz beruht vor allem darauf, dass die EU den Schwerpunkt auf Verbraucherrechte legt und dafĂŒr sorgt, dass die Sicherheit der Nutzerdaten durch die digitale Technologie gewĂ€hrleistet wird. Das vorgeschlagene KI-Gesetz der EU, ĂŒber das noch verhandelt wird und das bis 2025 verabschiedet sein soll, stuft KI-Anwendungen nach den Risikoklassen „inakzeptables Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „niedriges Risiko“ ein. Risikoreiche KI-Tools, wie sie bei biometrischer Identifizierung oder Finanzentscheidungen eingesetzt werden, mĂŒssen strenge Standards in Bezug auf Datenverwaltung, Transparenz und menschliche Aufsicht erfĂŒllen.Einige EU-LĂ€nder haben zusĂ€tzliche Standards zum EU-Rahmen eingefĂŒhrt, insbesondere fĂŒr mehr Datenschutz und Kontrolle. Der deutsche DSK-Leitfaden zum Beispiel konzentriert sich auf die Rechenschaftspflicht großer Sprachmodelle (LLM) und fordert mehr Transparenz, menschliche Kontrolle und die Zustimmung zur Datennutzung.Unternehmen, die KI in Europa einsetzen wollen, mĂŒssen sowohl die einheitlichen Anforderungen des KI-Gesetzes als auch die mitgliedsspezifischen Vorschriften berĂŒcksichtigen, die eine differenzierte und strenge Compliance-Landschaft schaffen.Nordamerika: neue VorschriftenDie Vorschriften fĂŒr kĂŒnstliche Intelligenz in Nordamerika sind weit weniger einheitlich als die in Europa. Die USA und Kanada sind noch dabei, ihre jeweiligen KI-Rahmenregelungen auszuarbeiten, wobei der derzeitige Ansatz der USA weniger streng und zugleich innovationsfreundlicher ist, wĂ€hrend Kanada eine zentralisierte Steuerung bevorzugt.Die Vereinigten Staaten arbeiten mit einem Hybridmodell aus bundesstaatlichen Richtlinien, wie dem Blueprint for an AI Bill of Rights, sowie einzelstaatlichen Gesetzen, wie dem California Consumer Privacy Act (CCPA) und dem Virginia Consumer Data Protection Act (VCDPA), die dazu dienen, einige der strengeren Datenschutzvorschriften durchzusetzen. Die zweistufige Vorgehensweise Ă€hnelt dem in der EU, wo es sowohl Vorschriften auf EU-Ebene als auch auf LĂ€nderebene gibt.Der grundsĂ€tzlich liberale Ansatz der USA entspricht dem dortigen VerstĂ€ndnis der freien Marktwirtschaft und rĂ€umt Innovation und Wachstum den Vorrang vor strengen Sicherheitsmaßnahmen ein. Doch nicht alle Staaten machen sich einen solch freizĂŒgigen Umgang zu eigen. Die Divergenz zwischen strengen einzelstaatlichen Gesetzen und eher lockeren Bundesrichtlinien kann zu einer fragmentierten Regulierungslandschaft fĂŒhren, die fĂŒr Unternehmen nur sehr schwer zu durchschauen ist.Asien-Pazifik (APAC): divergierende Strategien mit Fokus auf InnovationDie APAC-Region entwickelt sich schnell zu einem globalen Spitzenreiter in Sachen KI-Innovation, deren wichtigsten MĂ€rkte das technologische Wachstum in verschiedenen Sektoren maßgeblich vorantreiben. Die Regierungen in der Region haben darauf mit der Schaffung von Rahmenbedingungen reagiert, die den verantwortungsvollen Einsatz von KI und die DatensouverĂ€nitĂ€t in den Vordergrund stellen. Indiens kĂŒnftiges Gesetz zum Schutz digitaler personenbezogener Daten (Digital Personal Data Protection Bill, DPDPB), Singapurs Modellrahmen fĂŒr KI-Governance (Model AI Governance Framework) und SĂŒdkoreas Gesetz zur Förderung der KI-Industrie (AI Industry Promotion Act) werfen ein Schlaglicht auf die regulatorische Vielfalt in der Region und unterstreichen gleichzeitig die gemeinsame Forderung nach Transparenz und Datenlokalisierung.Es gibt keinen einheitlichen Ansatz fĂŒr die Regulierung von KI in der APAC-Region. LĂ€nder wie China setzen beispielsweise einige der weltweit strengsten Gesetze zur Datenlokalisierung durch, wĂ€hrend Japan „Soft-Law“-Prinzipien eingefĂŒhrt hat und bald verbindliche Vorschriften erwartet. Diese unterschiedlichen AnsĂ€tze spiegeln die spezifische Balance zwischen Innovation und Verantwortung in jedem Land wider.Lateinamerika: neue Normen fĂŒr den DatenschutzDie lateinamerikanische KI-Regulierungslandschaft befindet sich noch in der Entstehungsphase, wobei ein gemeinsamer Schwerpunkt auf dem Datenschutz liegt. Brasilien, das in der Region fĂŒhrend bei der digitalen Regulierung ist, erließ das Allgemeine Datenschutzgesetz (General Data Protection Law, LGPD) ein, das in seinem datenschutzfreundlichen Ansatz – Ă€hnlich wie das argentinische Datenschutzgesetz– eng an die DSGVO angelehnt ist. Mexiko prĂŒft ebenfalls eine KI-Gesetzgebung und hat bereits unverbindliche Leitlinien herausgegeben, in denen ethische GrundsĂ€tze und Menschenrechte betont werden.WĂ€hrend sich die regionale KI-Politik noch in der Entwicklung befindet, tendieren andere lateinamerikanische LĂ€nder wie Chile, Kolumbien, Peru und Uruguay zu Rahmenwerken, die Transparenz, die Zustimmung der Nutzer und menschliche Kontrolle in den Vordergrund stellen. Mit der zunehmenden Verbreitung von KI werden die lateinamerikanischen LĂ€nder wahrscheinlich dem Beispiel der EU folgen und risikobasierte Vorschriften einfĂŒhren, die sich mit Hochrisikoanwendungen, Datenverarbeitungsstandards und Datenschutzrechten befassen.Naher Osten: Zentren fĂŒr KI-InnovationenDie LĂ€nder des Nahen Ostens investieren erheblich in KI, um das Wirtschaftswachstum anzukurbeln, weshalb auch die Politik besonders innovationsfreundlich ist. In vielen FĂ€llen liegt der Schwerpunkt der Politik sowohl auf der Entwicklung technologischer Spitzenleistungen und der freiwilligen Einhaltung durch die Unternehmen als auch auf strengen gesetzlichen Anforderungen. Dies macht die Region zudem besonders komplex fĂŒr Unternehmen, die sich bemĂŒhen, sich den Bedingungen jedes Landes anzupassen.Die VAE wollen sich durch Initiativen wie die UAE National AI Strategy 2031 als weltweit fĂŒhrend im KI-Sektor positionieren. Die Strategie umfasst ethische Leitlinien, legt aber auch Wert auf eine innovationsfreundliche Politik, die Investitionen anzieht. Saudi-Arabien geht einen Ă€hnlichen Weg. Vorschriften wie die Standards fĂŒr Datenmanagement und den Schutz personenbezogener Daten (Data Management and Personal Data Protection Standards)konzentrieren sich auf Transparenz und Datenlokalisierung, um die Daten der BĂŒrger zu schĂŒtzen und gleichzeitig die rasche Entwicklung von KI in allen Bereichen zu fördern. Israels KI-Regulierung stĂŒtzt sich auf flexible, in den Datenschutzgesetzen verankerte Richtlinien, einschließlich des Datenschutzgesetzes (Privacy Protection Law, PPL), das 2024 geĂ€ndert wurde, um es an die DSGVO der EU anzupassen.Übersichtstabelle mit ZusammenfassungRegionLand/RegionVorschrift/RichtlinieSchwerpunktAuswirkungen auf die WirtschaftEuropaEUKI-Gesetz (geplant)RisikoabhĂ€ngige KI-Klassifizierung; hohe Standards bei Datenverwaltung, Transparenz und menschlicher AufsichtHöhere AufwĂ€nde bei Compliance, mögliche Verzögerungen bei der EinfĂŒhrung von KI aufgrund strikter Auflagen EUDatenschutzgrundverordnung (DSGVO)Datenschutz, Zustimmung zur Datenverarbeitung, BeschrĂ€nkungen fĂŒr grenzĂŒberschreitende DatenĂŒbertragungenErhöhte Betriebskosten fĂŒr die Einhaltung der Vorschriften, Herausforderungen fĂŒr die globale DatenĂŒbertragung und -speicherungNordamerikaUSAEntwurf fĂŒr ein KI-GrundgesetzKI-Sicherheit, Datenschutz, Fairness; unverbindliche staatliche LeitlinienFlexibilitĂ€t ermöglicht Innovation, aber Gesetze auf LĂ€nderebene erhöhen das Risiko der Fragmentierung von Vorschriften USA (Bundesstaaten)California Consumer Privacy Act (CCPA) & Virginia Consumer Data Protection Act (VCDPA)Datenschutz, Verbraucherdatenschutz, strenge Einhaltung der Vorschriften zur DatenverarbeitungErhöhte gesetzliche Anforderungen fĂŒr Unternehmen, die in strengen Bundesstaaten tĂ€tig sind KanadaArtificial Intelligence and Data Act (AIDA) (geplant)Nationale KI-Ethik und Datenschutz; Transparenz, Verantwortlichkeit fĂŒr die Nutzung personenbezogener DatenErfordert Investitionen in KI-Auditsysteme und Dokumentation KanadaPersonal Information Protection and Electronic Documents Act (PIPEDA)Datentransparenz, Zustimmung der Nutzer, Verantwortlichkeit bei der Verwendung personenbezogener DatenBietet Organisationen die Möglichkeit, durch Transparenz das Vertrauen ihrer Kunden zu gewinnenAPAC (Asien-Pazifik)IndienDigital Personal Data Protection Bill (DPDPB)Datenschutz, Einwilligung der Nutzer, DatensouverĂ€nitĂ€t, LokalisierungBetriebskosten fĂŒr Systeme zur Datenlokalisierung, limitiert grenzĂŒberschreitenden Datenfluss SingapurModell eines Rahmenwerks fĂŒr KI-GovernanceVerantwortungsvolle KI-Nutzung, Data Governance, TransparenzUnternehmen, die sich frĂŒhzeitig an den Anforderungen orientieren, sichern sich einen Wettbewerbsvorteil SĂŒdkoreaAI Industry Promotion ActUnterstĂŒtzung der KI-Industrie, Transparenz, DatenlokalisierungFördert KI-Innovationen, bringt aber Lokalisierungskosten fĂŒr internationale Unternehmen mit sich ChinaGesetze zur DatenlokalisierungStrenge Datenlokalisierung, Hoheit ĂŒber die DatenverarbeitungDie Datenlokalisierung ist mit Kosten fĂŒr die Einhaltung der Vorschriften verbunden und kann fĂŒr auslĂ€ndische Unternehmen, die in China tĂ€tig sind, Hindernisse darstellen JapanGesetz zum Schutz der PrivatsphĂ€re (Soft-Law-GrundsĂ€tze)Schutz der PrivatsphĂ€re, kĂŒnftige verbindliche Vorschriften erwartetKurzfristige geschĂ€ftliche FlexibilitĂ€t mit dem Potenzial fĂŒr zukĂŒnftige Kosten fĂŒr Compliance, wenn verbindliche Vorschriften eingefĂŒhrt werdenLateinamerikaBrasilienAllgemeines Datenschutzgesetz (General Data Protection Law, LGPD)Datenschutz, Einwilligung in die Datenverarbeitung, Transparenz bei der DatennutzungDie Angleichung an die DSGVO kann europĂ€ischen Unternehmen den Einstieg erleichtern, birgt aber auch das Potenzial, die Kosten fĂŒr die Einhaltung der Vorschriften zu erhöhen MexikoEthische GrundsĂ€tze der KI (nicht bindend)Ethische GrundsĂ€tze, Menschenrechte, Leitlinien fĂŒr den verantwortungsvollen Umgang mit KIMinimale Compliance-Anforderungen, ein „Soft-Law“-Ansatz ermöglicht Unternehmen FlexibilitĂ€t ArgentinienGesetz zum Schutz personenbezogener DatenDSGVO-konform; Einwilligung, Datenschutz, Nutzerrechte  ChileNational Intelligence PolicyMenschenrechte, Transparenz, Vermeidung von Bias beim Einsatz von KIGeringe Compliance-Kosten, aber Fokus auf ethische KI-Praktiken erforderlich KolumbienNational Policy for Digital TransformationEthische KI-Nutzung, verantwortungsvolle Entwicklung, DatensouverĂ€nitĂ€tFokus auf ethische Praktiken könnte Wettbewerbsvorteile bei öffentlichen Ausschreibungen schaffen PeruNationale Strategie fĂŒr KIKI-Infrastruktur, Ausbildung von FachkrĂ€ften, ethische DatenpraktikenSchafft Möglichkeiten fĂŒr Unternehmen, die sich mit KI-Schulungen und -Infrastrukturen befassen, erfordert jedoch ethische Orientierung UruguayAktualisierte KI-Strategie (in Arbeit)Governance in der öffentlichen Verwaltung, KI-InnovationErleichterung des Marktzugangs fĂŒr innovationsorientierte Unternehmen trotz anspruchsvoller Anpassung an Governance-RahmenbedingungenNaher OstenVAELeitfaden fĂŒr KI-Ethik und fĂŒr die EinfĂŒhrung von KIEthische Standards, Datenschutz, verantwortungsvoller Einsatz von KIUnterstĂŒtzt ethische KI-Entwicklung mit minimaler regulatorischer Belastung VAEDubai International Financial Center (DIFC) DatenschutzbestimmungenDatennutzung in KI-Anwendungen, Datenschutzrechte, DatenlokalisierungKann die DatenĂŒbertragung erschweren, positioniert Dubai aber als fĂŒhrendes KI-Land VAEKI-ChartaGovernance, Transparenz und Datenschutz in der KI-PraxisFördert die internationale Zusammenarbeit und betont den verantwortungsvollen Einsatz von KI Saudi-ArabienStandards fĂŒr Datenmanagement und Schutz personenbezogener DatenTransparenz, Datenlokalisierung, minimale EinschrĂ€nkungen fĂŒr KI-InnovationenUnterstĂŒtzt Innovation, erhöht aber Kosten fĂŒr lokalisierte Datenverarbeitung Saudi-ArabienEthische GrundsĂ€tze der KI und Richtlinien fĂŒr generative KIEthische Standards, verantwortungsvolle KI-Nutzung, Leitlinien fĂŒr die IndustrieNiedrige Compliance-Kosten fördern Innovation IsraelPrivacy Protection Law (PPL) und KI-PolitikDatenschutz, DSGVO-konforme Änderungen (KI-Politik), ethische und flexible KI-RegulierungFlexibilitĂ€t fĂŒr ethisch handelnde Unternehmen, Angleichung an DSGVO kann europĂ€ische Zusammenarbeit erleichternCompliance-Management angesichts sich ĂŒberschneidender VorschriftenCompliance-Management stellt schon immer eine Herausforderung dar. Angesichts der vielfĂ€ltigen und oft widersprĂŒchlichen Anforderungen, die weltweit gelten, ist die Einhaltung von Vorschriften heute jedoch schwieriger denn je. International tĂ€tige Unternehmen mĂŒssen eine Balance zwischen der Einhaltung strenger Vorschriften wie der EU-Datenschutzgrundverordnung (DSGVO) oder den chinesischen Gesetzen zur Datenlokalisierung und der Einhaltung flexiblerer oder innovationsorientierter Rahmenwerke in LĂ€ndern wie Singapur und Saudi-Arabien finden. Unternehmen sind gefordert, ihre AblĂ€ufe an die unterschiedlichen Standards fĂŒr Datenschutz, Transparenz und Governance anzupassen, was zu höheren Kosten und betrieblicher Ineffizienz fĂŒhren kann. Diese Fragmentierung der Vorschriften zwingt Unternehmen oft zu erheblichen Investitionen in juristische Expertise, in Compliance-Infrastruktur und in maßgeschneiderte operative Strategien, um widersprĂŒchliche Anforderungen zu erfĂŒllen.Vereinfachung globaler KI-Compliance mit GcoreFĂŒr international tĂ€tige Unternehmen stellt die Einhaltung unterschiedlicher KI-Vorschriften eine große HĂŒrde dar. State-of-the-Art-Technologien wie Sovereign Cloud und Edge Computing eröffnen jedoch neue Möglichkeiten, diese Standards zu erfĂŒllen. Sovereign Clouds ermöglichen die Datenspeicherung und -verarbeitung innerhalb bestimmter Regionen, was es den Unternehmen erleichtert, die Gesetze zur Datenlokalisierung einzuhalten und gleichzeitig von der Skalierbarkeit der Cloud zu profitieren. Anbieter wie Gcore bieten Lösungen mit einem weltweiten Netz von Datenzentren an, die globalen Unternehmen einen nahtlosen Betrieb ĂŒber Grenzen hinweg ermöglichen.Gcore ist fĂŒhrend im Edge Computing, das als ErgĂ€nzung zur Lokalisierung die Datenverarbeitung nĂ€her am Entstehungsort der Daten ermöglicht. Dies verringert den Bedarf an grenzĂŒberschreitenden DatenĂŒbertragungen und verbessert sowohl Latenzzeit als auch Netzwerkeffizienz. Dies ist besonders vorteilhaft fĂŒr KI-Anwendungen in Bereichen wie autonomes Fahren und Telemedizin, in denen sowohl Geschwindigkeit als auch KonformitĂ€t entscheidend sind. DarĂŒber hinaus vereinfacht Gcore die Einhaltung von Vorschriften wie der EU-DSGVO und dem KI-Gesetz, indem es dazu beitrĂ€gt, dass sensible Daten sicher und innerhalb der regionalen Grenzen bleiben.Entdecken Sie Gcore Inference at the Edge fĂŒr die lĂŒckenlose Einhaltung von gesetzlichen Vorschriften

Wir stellen vor: Gcore Everywhere Inference, der nÀchste Schritt in der KI-Entwicklung

Wir freuen uns, Ihnen eine entscheidende Weiterentwicklung unserer KI-Inferenzlösung der nĂ€chsten Generation prĂ€sentieren zu können: Everywhere Inference, bisher bekannt als Inference at the Edge. Dieses Update ist eine direkte Antwort auf die Herausforderungen heutiger Unternehmen. Es bietet alle notwendigen Tools, mit denen Hemmnisse wie steigende Inferenzanforderungen, betriebliche KomplexitĂ€t und Compliance-Vorschriften bewĂ€ltigt werden können.Mit Everywhere Inference können Sie KI-Inferenzen jetzt nahtlos in jeder beliebigen Umgebung einsetzen – ob On-Premises, in der Cloud von Gcore, in öffentlichen Clouds oder in einer hybriden Konfiguration. Als Antwort auf die Anforderungen unserer Kunden, die sich mit der Evolution von KI laufend verĂ€ndern, ermöglicht Everywhere Inference ein flexibles, effizientes und optimiertes Inferenzmanagement, unabhĂ€ngig von Ihrem Anwendungsfall. Diese spannende Neuerung unterstreicht, wie sich die Perspektiven fĂŒr KI bei Gcore erweitern. Was sich jedoch nie Ă€ndern wird, ist unser unermĂŒdliches Engagement fĂŒr niedrige Latenzzeiten, Skalierbarkeit und Compliance, wie Sie es von uns gewohnt sind.Wie Gcore Everywhere Inference die KI-Workloads verĂ€ndertEverywhere Inference wurde entwickelt, um Unternehmen mehr FlexibilitĂ€t und Kontrolle ĂŒber ihre KI-Workloads zu geben. Verschaffen Sie sich hier einen Überblick ĂŒber die neuesten Erweiterungen.Intelligentes Routing fĂŒr schnellere, nahtlose PerformanceWorkloads werden jetzt automatisch an die nĂ€chstgelegenen verfĂŒgbaren Rechenressourcen weitergeleitet, wodurch selbst bei zeitkritischen Anwendungen eine niedrige Latenz erreicht wird. Das bedeutet, dass geschĂ€ftskritische Anwendungen, die PrĂ€zision und Schnelligkeit erfordern – wie zum Beispiel Systeme zur Betrugserkennung in Echtzeit –, kĂŒnftig schnellere Antworten liefern, ohne die notwendige Genauigkeit zu beeintrĂ€chtigen.Multi-Tenancy fĂŒr RessourceneffizienzMit der neuen Multi-Tenancy-Funktion können Unternehmen mehrere KI-Workloads gleichzeitig auf einer gemeinsam genutzten Infrastruktur ausfĂŒhren. Dieses Prinzip maximiert die Ressourcenauslastung und reduziert die Betriebskosten, insbesondere fĂŒr Branchen wie Telekommunikation, die auf eine dynamische Netzwerkoptimierung angewiesen sind.Flexible Bereitstellung in verschiedenen UmgebungenFlexibilitĂ€t bei der Bereitstellung ermöglicht Unternehmen eine schnelle Anpassung an sich verĂ€ndernde Anforderungen und die nahtlose Integration in bestehende Infrastruktur. Ob On-Premises, in der Gcore-Cloud, in öffentlichen Clouds oder in einer hybriden Konfiguration – Everywhere Inference erleichtert es, Inferenz-Workloads ĂŒberall dort einzusetzen, wo sie gebraucht werden.Extrem niedrige Latenz durch unser globales NetzwerkMithilfe des globalen Netzwerks von Gcore mit mehr als 180 Points of Presence (PoPs) können Unternehmen ihre Workloads nĂ€her am Endbenutzer platzieren und so extrem niedrige Latenzzeiten erzielen. Unsere umfassende Infrastruktur ermöglicht Verarbeitung in Echtzeit, sofortige Bereitstellung und nahtlose Performance weltweit.Dynamische Skalierung bei LastspitzenDie bedarfsorientierte Skalierung von Ressourcen findet nun noch schneller und prĂ€ziser statt und erlaubt es Unternehmen, Lastspitzen auch ohne Überprovisionierung aufzufangen. Unternehmen mit temporĂ€ren Lastspitzen, wie beispielsweise der Einzelhandel, können solche Phasen mithilfe dynamischer Skalierung leichter bewĂ€ltigen und gleichzeitig ihre Infrastrukturkosten begrenzen.Compliance-konforme VerarbeitungEverywhere Inference wurde mit Blick auf die Einhaltung gesetzlicher Vorschriften entwickelt und erfĂŒllt die Anforderungen an Datenhoheit, einschließlich die der DSGVO. Das macht es zur idealen Wahl fĂŒr Branchen, in denen sensible Daten gespeichert und geschĂŒtzt werden mĂŒssen, unter anderem im Gesundheitswesen.Die Zukunft der KI-Inferenz ist schon daMit diesen Erweiterungen setzt Gcore Everywhere Inference neue MaßstĂ€be fĂŒr KI-Inferenzlösungen. Ganz gleich, ob Sie Echtzeitanwendungen optimieren, schnell skalieren oder durch komplexe regulatorische Umgebungen navigieren mĂŒssen: Everywhere Inference sorgt fĂŒr die Geschwindigkeit, Effizienz und FlexibilitĂ€t, die Sie im Zeitalter der KI benötigen.Entdecken Sie Everywhere Inference

Edge Cloud-Updates fĂŒr Dezember 2024

Wir freuen uns, Ihnen die neuesten Erweiterungen unserer Edge Cloud-Plattform vorstellen zu können, mit denen Sie mehr FlexibilitĂ€t, ZuverlĂ€ssigkeit und Kontrolle ĂŒber Ihre Infrastruktur erhalten. Die Updates umfassen die UnterstĂŒtzung mehrerer öffentlicher IPs fĂŒr Bare Metal und verstĂ€rkte Maßnahmen zum Schutz vor Missbrauch. FĂŒr Neukunden haben wir ein exklusives Angebot fĂŒr die Aktivierung von Bare Metal-Servern. Alle Details hierzu finden Sie in diesem Blog.UnterstĂŒtzung mehrerer öffentlicher IPs fĂŒr Bare MetalWir fĂŒhren die UnterstĂŒtzung mehrerer öffentliche IPs fĂŒr Bare Metal-Server in dedizierten öffentlichen Subnetzen ein und erhöhen damit ihre FlexibilitĂ€t und ZuverlĂ€ssigkeit. Mit diesem Update können Sie zur Sicherung einer nahtlosen ServicekontinuitĂ€t mehrere öffentliche IP-Adressen konfigurieren und so die StabilitĂ€t Ihrer Infrastruktur erhöhen. Mit mehreren IPs bleiben Ihre Dienste ohne Unterbrechung online, selbst wenn eine IP-Adresse ausfallen sollte.Diese FunktionalitĂ€t bietet eine hohe FlexibilitĂ€t und ermöglicht es Ihnen, Ihren Betrieb mĂŒhelos zu skalieren. Besonders nĂŒtzlich ist dies bei der BewĂ€ltigung unterschiedlicher Workloads, der Steuerung des Datenverkehrs und bei komplexen Hosting-Umgebungen. Es ist zudem eine ideale Lösung fĂŒr Hypervisor-Umgebungen, in denen die Trennung des Datenverkehrs ĂŒber verschiedene IPs unerlĂ€sslich ist.Das mĂŒssen Sie wissen, bevor Sie loslegen:Diese Funktion funktioniert ausschließlich mit einem dedizierten öffentlichen Subnetz.Um diese Funktion zu aktivieren, stellen Sie bitte eine Anfrage an unser Support-Team.Die Anzahl der unterstĂŒtzten öffentlichen IPs ist durch die GrĂ¶ĂŸe des dedizierten Subnetzes begrenzt, das Ihrem Bare Metal-Server zugewiesen ist.Bitte wenden Sie sich an unser Support-Team, wenn Sie kĂŒnftig mehrere öffentliche IPs nutzen möchten.VerschĂ€rfte Maßnahmen zur Vermeidung von MissbrauchWir haben neue Maßnahmen zum Schutz vor Missbrauch ergriffen, um problematische Datenverkehrsmuster zu erkennen und einzudĂ€mmen, die ZuverlĂ€ssigkeit der Services zu verbessern und Ihre Infrastruktur vor gefĂ€hrlichen AktivitĂ€ten zu sichern. Diese Updates tragen dazu bei, Ihr Netzwerk zu schĂŒtzen und eine konsistente LeistungsfĂ€higkeit Ihrer Applikationen zu erzielen.Weitere Informationen finden Sie in unserer Produktdokumentation.Testen Sie Bare Metal diesen Monat mit 35 % RabattGcore Bare Metal-Server sind die perfekte Wahl, um herausragende Performance zu erzielen und auch die anspruchsvollsten Workloads zu bewĂ€ltigen. Durch ihre globale VerfĂŒgbarkeit bieten sie eine zuverlĂ€ssige, leistungsstarke und skalierbare Lösung, wo immer Sie sie brauchen. FĂŒr begrenzte Zeit erhalten Neukunden zwei Monate lang 35 % Rabatt auf High-Frequency Bare Metal-Server*.Falls Sie von Ihrem Anbieter wĂ€hrend Spitzenzeiten enttĂ€uscht wurden oder Ihre LeistungsfĂ€higkeit fĂŒr 2025 ausbauen möchten, ist das die Gelegenheit fĂŒr Sie. Nutzen Sie das Angebot bis zum 7. Januar, um sich einen der Rabatte fĂŒr die ersten 500 Kunden zu sichern.Nutzen Sie das volle Potenzial der Edge CloudDiese Updates unterstreichen unser Engagement, Ihr Unternehmen fortlaufend mit Tools und Funktionen zu unterstĂŒtzen, die Ihre Anforderungen erfĂŒllen. Ob es um die Erhöhung von FlexibilitĂ€t, einfacheres Server-Management oder bessere Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Ob es um die Erhöhung von FlexibilitĂ€t, einfacheres Server-Management oder mehr Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Entdecken Sie Bare Metal von Gcore* Hinweis: Dieses Angebot gilt bis zum 7. Januar 2025. Der Rabatt gilt fĂŒr zwei Monate ab Beginn des Abonnements und exklusiv fĂŒr Neukunden, die High-Frequency Bare Metal-Server aktivieren. Der Rabatt erlischt automatisch nach zwei Monaten. Das Angebot ist auf die ersten 500 Aktivierungen beschrĂ€nkt.

Die neuen FastEdge-Updates fĂŒr November

FĂŒr FastEdge, unsere serverlose Edge-Computing-Lösung, veröffentlichen wir diesen Monat Verbesserungen, die Workflows vereinfachen, die Sicherheit erhöhen und das Anwendungsmanagement optimieren. Kunden von FastEdge haben jetzt Zugang zu Secret Storage Support, CLI und Konfigurationsvorlagen. Außerdem haben wir die Steuerung des Gcore-Kundenportals verbessert. Das sind die Neuerungen:Secret Storage SupportDie Verwaltung sensibler Informationen ist eine zentrale Herausforderung fĂŒr moderne Anwendungen. Mit dem Secret Storage Support haben Sie jetzt Zugriff auf ein robustes System zur VerschlĂŒsselung und Verwaltung von API-SchlĂŒsseln, Anmeldeinformationen, Token und anderen sensiblen Daten in den Umgebungsvariablen Ihrer Anwendung.Das bedeutet fĂŒr Sie Folgendes:Verbesserte Sicherheit: SchĂŒtzen Sie vertrauliche Informationen mit den neuesten VerschlĂŒsselungstechniken und verringern Sie so das Risiko von absichtlichen oder versehentlichen Datenlecks.Schlankere Verwaltung: Vereinfachen Sie Ihre Anwendungskonfiguration mit einem einzigen, sicheren Workflow fĂŒr Umgebungsvariablen.Einhaltung gesetzlicher Vorschriften: ErfĂŒllen Sie die strengen Datenschutz- und Datensicherheitsstandards und schĂŒtzen Sie Ihre Anwendungen damit vor VerstĂ¶ĂŸen und aufsichtsrechtlichen Konsequenzen.CLI (Command Line Interface)Die FastEdge-CLI ist ein leistungsstarkes Tool, das Entwicklern und DevOps-Teams die direkte Interaktion mit FastEdge ĂŒber eine Befehlszeilenschnittstelle ermöglicht. Diese Funktion vereinfacht ArbeitsablĂ€ufe, indem sie eine Reihe von Befehlen fĂŒr das Deployment Management, die Überwachung der Performance sowie die Integration in bestehenden CI/CD-Pipelines bietet. DarĂŒber hinaus unterstĂŒtzt sie lokale Tests, mit denen Teams Deployment-Umgebungen replizieren und Änderungen in Echtzeit erproben können, bevor sie live gehen.Das bedeutet fĂŒr Sie Folgendes:Effiziente Automatisierung: Verringern Sie menschliche Fehler durch die Automatisierung von Aktualisierungen, Skalierung und der Verwaltung von Konfigurationen.Nahtlose Integration: Optimieren Sie Ihre CI/CD-Pipelines mit FastEdge, um schnellere Entwicklungszyklen, kĂŒrzere MarkteinfĂŒhrungszeiten und geringeren Verwaltungsaufwand zu ermöglichen.Verbesserte Kontrolle: Verwenden Sie die CLI, um Einstellungen und Deployments zu verwalten, und geben Sie Entwicklern die nötige FlexibilitĂ€t, Prozesse an ihre individuellen Anforderungen anzupassen.Erhöhte FlexibilitĂ€t: Testen und debuggen Sie Ihre Anwendungen lokal, um Änderungen vor der Bereitstellung zu validieren, Risiken zu reduzieren und bessere Ergebnisse zu erzielen.Optimierte Entwicklung: Vereinfachen Sie Routineaufgaben, damit sich Ihre Teams ganz auf Innovationen und auf die Verbesserung der Performance Ihrer Anwendungen konzentrieren können.Wenn Sie den Umgang mit FastEdge CLI kennenlernen und die vollstĂ€ndige Dokumentation lesen möchten, besuchen Sie das FastEdge CLI GitHub-Repository.Vorlagen fĂŒr eine schnelle KonfigurationVordefinierte Vorlagen optimieren die Bereitstellung von FastEdge-Services, indem sie die Konfiguration fĂŒr gĂ€ngige AnwendungsfĂ€lle erheblich vereinfachen. Diese Vorlagen bieten mehrere entscheidende Vorteile fĂŒr Nutzer. Die vordefinierten Optionen fĂŒr Caching, Sicherheit und Lastausgleich erlauben eine schnelle und fehlerfreie Einrichtung, die viel Zeit bei der Bereitstellung spart. Durch standardisierte Konfigurationen fĂŒr alle Bereitstellungen sorgen die Vorlagen fĂŒr Konsistenz im gesamten System, was Fehler reduziert und die StabilitĂ€t erhöht. Obwohl die Vorlagen die genannten standardisierten Vorteile bieten, sind sie flexibel und können problemlos Ihren spezifischen Anforderungen angepasst werden. Indem sie es Ihnen ermöglichen, konsistente Anpassungen in Ihrer gesamten Netzwerkinfrastruktur vorzunehmen, vereinfachen sie sowohl die Skalierungs- als auch die Wartungsprozesse.Verbesserte Verwaltung im Gcore-KundenportalDas aktualisierte Gcore-Kundenportal bietet erweiterte Tools fĂŒr die Verwaltung von FastEdge-Services. So können Partner und WiederverkĂ€ufer Kundeneinstellungen besser kontrollieren und Probleme beheben.Die zentrale Verwaltungsschnittstelle erlaubt es Ihnen, Kundeneinstellungen schnell zu Ă€ndern. Das spart Zeit und vereinfacht die Konfigurationsprozesse fĂŒr Ihren Kundenstamm. Neuen Kunden können Sie benutzerdefinierte Vorlagen zur VerfĂŒgung stellen, die einen einheitlichen und effizienten Prozess möglich machen, der das Onboarding beschleunigt. Die systemeigenen Diagnosen und Auswertungen in Echtzeit helfen Ihnen, Anwendungsprobleme schneller zu beheben und ServiceausfĂ€lle zu minimieren. Außerdem können mit den Verbesserungen die Serviceleistungen fĂŒr mehrere Kunden einfach verwaltet und skaliert und gleichzeitig konsistente Konfigurationen fĂŒr den gesamten Kundenstamm gewĂ€hrleistet werden.Bleiben Sie ĂŒber kĂŒnftige FastEdge-Updates informiertDiese Updates – in Kombination mit FastEdge, dem erweiterten Funktionsumfang unserer serverlosen Edge-Computing-Lösung – machen es einfacher denn je, sichere, skalierbare und leistungsstarke Anwendungen zu implementieren. Freuen Sie sich also auf weitere Verbesserungen im nĂ€chsten Monat!

Absicherung von Webanwendungen und APIs am Edge: die LeistungsfÀhigkeit von Edge WAAP

Da Anwendungsarchitekturen immer verteilter werden, erfordert die Sicherung von Webanwendungen und APIs einen proaktiven, anpassungsfĂ€higen Ansatz, der ĂŒber herkömmliche Web Application Firewalls (WAFs) hinausgeht. Lösungen zum Schutz von Webanwendungen und Anwendungsprogrammierschnittstellen (WAAP) verbessern die Sicherheit, indem sie die Schutzmaßnahmen nĂ€her an die Endbenutzer und potenzielle Bedrohungen heranbringen. Diese strategische Positionierung verringert die Latenzzeit, was zu schnelleren Reaktionszeiten und einem nahtloseren Benutzererlebnis fĂŒhrt. Edge-basiertes WAAP senkt das Risiko von Ausfallzeiten und schĂŒtzt wichtige Ressourcen, indem es Bedrohungen wie DDoS-Angriffe, Bot-Traffic und API-Missbrauch abfĂ€ngt, bevor sie die Kerninfrastruktur erreichen.Edge-basiertes WAAP bietet dynamische Skalierbarkeit und erhöhte Geschwindigkeit und bewĂ€ltigt effizient große Datenmengen und unerwartete Nachfragespitzen. Verteilt auf zahlreiche globale PrĂ€senzpunkte bietet sie robuste, flexible Sicherheit, die sich in Echtzeit an Bedrohungen und Angriffe anpasst und damit perfekt fĂŒr den Schutz von Anwendungen in komplexen Multi-Cloud-Umgebungen geeignet ist.Warum WAAP am Edge?Bei zentralisierten WAAP-Lösungen steht in der Regel eine einzige Sicherheitsanwendung oder Software-Instanz zwischen dem Internet und der Anwendung. Die zentralisierte WAAP ist zwar in bestimmten Szenarien wirksam, hat aber ihre Grenzen, insbesondere wenn es um globale Anwendungen und verteilte Infrastrukturen geht. Zu den Nachteilen gehören:Latenz: Datenverkehr, der ĂŒber einen zentralen Punkt geleitet wird, kann zu Latenz fĂŒhren, was die Anwendungsleistung beeintrĂ€chtigt.Ein einziger Ausfallpunkt: Die Kompromittierung der zentralen Sicherheitsanwendung kann die gesamte Anwendung stark beeintrĂ€chtigen.Skalierbarkeit: Die Skalierung von zentralisierten Lösungen zur BewĂ€ltigung des zunehmenden Datenverkehrs und der sich entwickelnden Bedrohungslandschaft kann eine Herausforderung darstellen.Edge-WAAP hingegen verteilt Sicherheitsfunktionen auf mehrere Punkte im Netzwerk, hĂ€ufig nĂ€her am Edge. Dieser Ansatz bietet mehrere Vorteile: geringere Latenzzeiten, bessere Leistung, höhere Sicherheit und grĂ¶ĂŸere FlexibilitĂ€t. Betrachten wir sie der Reihe nach.Geringere LatenzzeitDurch die Nutzung der LeistungsfĂ€higkeit von CDN, um die Sicherheit in die NĂ€he des Endnutzers zu bringen, reduziert Edge WAAP die Latenzzeit erheblich, da der Datenverkehr nĂ€her an der Quelle verarbeitet wird. Die Latenzzeit steigt mit zunehmender physischer Entfernung zwischen Benutzern und Rechenzentren, so dass die Verringerung dieser Entfernung der SchlĂŒssel zur Verbesserung der Reaktionszeiten ist. Dank des umfangreichen PoP-Netzwerks von Gcore auf der ganzen Welt werden Daten stets in der NĂ€he der Endnutzer verarbeitet. Dies reduziert die DatenĂŒbertragungsdistanz und ermöglicht eine schnellere Reaktion bei der Abwehr von Angriffen. Bei herkömmlichen Systemen bedeutet die Zentralisierung der Sicherheitsfunktionen, dass alle Anfragen (einschließlich potenziell böswilliger Anfragen) ĂŒber eine einzige Stelle laufen, was zu EngpĂ€ssen und einer Verlangsamung des Dienstes fĂŒhren kann. Edge WAAP vermeidet dieses Problem, indem es die Sicherheitsfunktionen nĂ€her am Ursprung der Anfrage bearbeitet.Dies fĂŒhrt zu einer reibungsloseren und schnelleren Interaktion mit den Kunden, selbst bei Spitzenbelastungen. So könnte beispielsweise eine globale E-Commerce-Plattform Edge WAAP nutzen, um ein nahtloses Einkaufserlebnis in verschiedenen Regionen mit minimalen Verzögerungen zu ermöglichen. Durch niedrige Latenzzeiten verbessert Edge WAAP die Gesamtleistung der Anwendung und bietet die nötige Skalierbarkeit, um schwankende Verkehrsanforderungen zu bewĂ€ltigen. Diese Struktur ermöglicht es Unternehmen, reaktionsschnelle und zuverlĂ€ssige Dienste aufrechtzuerhalten, wĂ€hrend sie wachsen, und unterstĂŒtzt sowohl aktuelle als auch zukĂŒnftige Skalierungsanforderungen.Verbesserte SicherheitDie Kombination aus geringer Latenzzeit und globaler Netzverteilung macht Edge WAAP sicherer als Standard-WAAP-Lösungen. Indem der Datenverkehr nĂ€her an seiner Quelle verarbeitet wird, kann Edge-WAAP Bedrohungen in Echtzeit erkennen und abwehren, wodurch die Verzögerung zwischen der Identifikation böswilliger AktivitĂ€ten und der Reaktion minimiert wird. Dieser Ansatz mit niedriger Latenz verringert das Zeitfenster fĂŒr Angreifer und garantiert, dass Bedrohungen wie DDoS-Angriffe, Bot-AktivitĂ€ten und API-Missbrauch neutralisiert werden, bevor sie die Kerninfrastruktur erreichen.DarĂŒber hinaus nutzt Edge WAAP ein global verteiltes Netzwerk, um verdĂ€chtige Datenverkehrsmuster ĂŒber Regionen hinweg zu ĂŒberwachen, was die Transparenz erhöht und die Anwendung von Sicherheitsmaßnahmen auf der Grundlage des geografischen Ursprungs von Bedrohungen ermöglicht. Dieser Ansatz kommt vor allem Unternehmen zugute, die mit sensiblen Daten arbeiten oder Compliance-Anforderungen in mehreren Regionen erfĂŒllen mĂŒssen. Durch die Kombination aus geringer Latenzzeit und umfassender, globaler BedrohungsĂŒberwachung bietet Edge WAAP proaktiven, anpassungsfĂ€higen Schutz, der schnell auf neue Bedrohungen reagieren kann.GrĂ¶ĂŸere FlexibilitĂ€tEdge WAAP ermöglicht Unternehmen die Anpassung an sich entwickelnde Netzwerktopologien und Anwendungsarchitekturen. Durch die Bereitstellung von WAAP am Edge können Sicherheitsfunktionen verteilt und an ein sich Ă€nderndes Netzwerkumfeld angepasst werden, sei es aufgrund von Wachstum, verĂ€nderten Datenverkehrsströmen oder neuen Anforderungen an die Bereitstellung. Dank dieser FlexibilitĂ€t kann WAAP eine Reihe von Architekturen unterstĂŒtzen, von Multi-Cloud- und Hybrid-Umgebungen bis hin zu komplexeren, regionsspezifischen Konfigurationen.Der Edge-basierte Ansatz von Gcore lĂ€sst sich nahtlos in Multi-Cloud- und Hybrid-Umgebungen integrieren und erleichtert Unternehmen die Skalierung und Anpassung von Sicherheitskonfigurationen, wenn sie wachsen. Diese FlexibilitĂ€t ist besonders wertvoll fĂŒr Unternehmen, die in neue Regionen expandieren oder neue Technologien einfĂŒhren, da Edge WAAP sich an ihre individuellen Infrastrukturanforderungen anpassen kann.Garantierte Sicherheit und Leistung mit Edge-basiertem WAAPEdge-basiertes WAAP ist eine leistungsstarke Lösung zur Sicherung moderner Anwendungen und APIs. Gcore WAAP bringt die Sicherheit nĂ€her an die Kunden heran und sorgt so fĂŒr einen schnelleren und effizienteren Schutz dank unseres riesigen globalen Netzwerks von mehr als 180 PrĂ€senzpunkten (PoPs) in mehr als 95 LĂ€ndern .Gcore WAAP arbeitet am Edge, um umfassenden Schutz vor DDoS-Angriffen, böswilligen Bots und API-Schwachstellen zu bieten. Außerdem lĂ€sst sie sich leicht skalieren, um hohe Datenverkehrsanforderungen in verteilten Multi-Cloud-Systemen zu bewĂ€ltigen. Erfahren Sie, wie Gcore WAAP weltweit unĂŒbertroffene Geschwindigkeit bietet und Ihren Anwendungen robuste Sicherheit in einer Umgebung mit geringer Latenz ermöglicht.Erfahren Sie mehr ĂŒber Gcore WAAP

Melden Sie sich fĂŒr unseren Newsletter an

Erhalten Sie die neuesten Branchentrends, exklusive Einblicke und Gcore-Updates direkt in Ihren Posteingang.