Neuer Radar Report: DDoS - Trends entdecken, Schutz optimieren.Zum Report

Produkte

Lösungen

Ressourcen

Partner

Warum Gcore

  1. Home
  2. Blog
  3. Wie wir unsere Anwendungen auf die Micro-Frontend-Architektur bei Gcore migrieren

Wie wir unsere Anwendungen auf die Micro-Frontend-Architektur bei Gcore migrieren

  • Von Gcore
  • June 8, 2023
  • 7 Min.
Wie wir unsere Anwendungen auf die Micro-Frontend-Architektur bei Gcore migrieren

Bei Gcore sind uns die Entwicklungen in der Technologiewelt nicht fremd. Wir haben vor kurzem ein neues Projekt gestartet: die Migration unserer größtenteils Angular-basierten Anwendungen auf eine Micro-Frontend-Architektur. Aufgrund unserer umfangreichen Nutzung von Angular haben wir uns für Module Federation als Strategie für diesen Übergang entschieden.

Unsere Ziele

Als wir unsere Migrationsreise begannen, legten wir klare Ziele fest. Unsere Ambitionen beschränkten sich nicht nur auf die Modernisierung unseres Technologie-Stacks, sondern zielten auch darauf ab, die Benutzererfahrung und unseren Entwicklungsprozess spürbar zu verbessern.

  • Ladezeit reduzieren: Unsere erste Priorität bestand darin, die Leistung unserer Anwendungen durch Reduzierung der Ladezeit zu verbessern. Schnellere Ladezeiten führen direkt zu einer verbesserten Benutzerzufriedenheit und -einbindung.
  • Module wiederverwenden: Unser Ziel war es, einen effizienteren Entwicklungsprozess zu etablieren, indem wir Module in verschiedenen Anwendungen wiederverwenden. Das minimiert nicht nur die Redundanz, sondern beschleunigt auch den Entwicklungszyklus und verbessert die Wartbarkeit.
  • Subdomains zugunsten von Pfadnamen aufgeben: Wir wollten auf die Verwendung von Subdomains verzichten (natürlich nicht vollständig) und uns stattdessen für Pfadnamen entscheiden. Diese Änderung wird uns eine genauere Kontrolle über das Routing ermöglichen und eine nahtlosere Benutzererfahrung bieten.
  • Widget-Skript-Initialisierung optimieren: Und schließlich verfügen wir über ein Widget-Skript, das bei jeder Anwendung initialisiert wird. Wir haben beschlossen, dass sich das ändern muss. Anstatt das Skript mit jeder App einzeln zu laden, was wertvolle Zeit verschwendet, wollten wir, dass dieser Vorgang nur einmal beim Laden unserer Shell-Anwendung durchgeführt wird.

Diese Ziele leiteten unsere Migration zur Micro-Frontend-Architektur. In unserer Geschichte geht es nicht nur um ein technologisches Upgrade, sondern auch um das Streben nach einer effizienteren, benutzerfreundlicheren digitalen Umgebung.

Module Federation

Bevor wir näher auf unsere Reise eingehen, wollen wir etwas Licht auf das entscheidende, von uns eingesetzte Tool werfen – Module Federation. Module Federation, eine in Webpack 5 eingeführte Funktion, ermöglicht separate Builds zur Bildung verschiedener „Mikro-Frontends“, die nahtlos zusammenarbeiten können.

Sie ermöglicht verschiedenen JavaScript-Anwendungen, Code aus einem anderen Build dynamisch auszuführen und dabei im Wesentlichen Bibliotheken oder Komponenten gemeinsam zu nutzen. Diese Architektur fördert die Wiederverwendung von Code, optimiert die Ladezeiten und steigert die Skalierbarkeit der Anwendung erheblich.

Mit einem besseren Verständnis für Module Federation können wir nun untersuchen, welche entscheidende Rolle es in unserem Migrationsprozess gespielt hat.

ngx-build-plus

Im Angular-Ökosystem hat ngx-build-plus die Implementierung von Module Federation grundlegend verändert. Es handelt sich um eine Erweiterung für die Angular CLI, die es uns ermöglicht, die Build-Konfiguration zu optimieren, ohne die gesamte Webpack-Konfiguration ändern zu müssen.

Wir können gemeinsame Abhängigkeiten definieren und so sicherstellen, dass sie nur einmal im endgültigen Bundle enthalten sind. Im Folgenden finden Sie ein Beispiel für eine Konfiguration, in der wir Angular-Bibliotheken, RXJS und einige benutzerdefinierte Gcore-Bibliotheken freigegeben haben:

hared: share({ 	'@angular/core': { singleton: true, requiredVersion: '^14.0.0' }, 	'@angular/common': { singleton: true, requiredVersion: '^14.0.0' }, 	'@angular/router': { singleton: true, requiredVersion: '^14.0.0' }, 	rxjs: { singleton: true, requiredVersion: '>=7.1.0' }, 	'@gcore/my-messages': {     	singleton: true,     	strictVersion: false,     	packageName: '@gcore/my-messages', 	}, 	'@gcore/my-modules': {     	singleton: true,     	strictVersion: true,     	requiredVersion: '^1.0.0',     	packageName: '@gcore/my-modules', 	}, 	'@gcore/ui-kit': { singleton: true, requiredVersion: '^10.2.0' }, }),

So, da habt Ihr es, Leute! Holen Sie sich ngx-build-plus, richten Sie Module Federation ein, konfigurieren Sie Ihre gemeinsamen Abhängigkeiten und voilà, Sie sind ein Micro-Frontend-Meister. Herzlichen Glückwunsch!

Oh, warten Sie…

Kommunikation zwischen Anwendungen

Mit zunehmender Komplexität unserer Anwendungen wuchs auch der Bedarf an einer effizienten Kommunikation zwischen diesen. Zunächst hatten wir auf jeder Anwendungsseite ein Widget-Skript geladen und die Kommunikation zwischen der Anwendung und dem Widget wurde über das Fensterobjekt orchestriert. Es funktionierte, und uns wurde klar, dass wir es noch weiter optimieren konnten.

Geben Sie @gcore/my-messages ein, unseren ureigenen Ritter in glänzender Rüstung. Es handelt sich um einen gemeinsam nutzbaren Dienst. Es ähnelt eher einem Nachrichtenbus, außer dass es sich nicht um einen Bus handelt, sondern um einen von rxjs unterstützten Dienst.

Aber bevor wir uns zu Metaphern hinreißen lassen, wollen wir eines klarstellen: Dieser Dienst kennt Widgets und Anwendungen glücklicherweise nicht. Es handelt sich lediglich um Schnittstellen von Nachrichten und der Logik zum Senden dieser Nachrichten. Grundsätzlich handelt es sich bei diesen Schnittstellen um Konventionen. Dadurch bleiben sie schlank, effizient und unvoreingenommen, was sie zu einem perfekten Vermittler für die Kommunikation unserer Anwendungen macht.

Und es geht noch weiter.

Wo stehe ich? Mangel an Selbstwahrnehmung der Statiker

Statiker sind sich ihrer Umgebung glücklicherweise nicht bewusst, und dieser Mangel an Selbstwahrnehmung kann echte Probleme verursachen.

Um diese existenzielle Krise zu lösen, haben wir einen Mechanismus geschaffen, der jede Micro-Frontend-App über ihre eigene Herkunft informieren kann. Es hätten verschiedene Lösungen eingeführt werden können, aber wir entschieden uns für my-modules.

Stellen Sie sich @gcore/my-modules als Reiseführer vor. Dieser wird in die Shell-Anwendung eingefügt und enthält alle wesentlichen Informationen über die Micro-Frontend-Apps. Dieses Umgebung erkennende Modul wird während der Shell-CI/CD-Prozesse konfiguriert. Wodurch es dynamisch und dennoch zuverlässig ist und während der Shell-Initialisierung gefüllt wird. So kann es jederzeit nach Ihren Wünschen konfiguriert werden.

Über Module Federation kann my-modules gemeinsam genutzt werden, sodass andere Apps bei Bedarf auf diese wichtigen Informationen zugreifen können. Beachten Sie, dass Sie jedes Mal, wenn Sie eine neue Micro-Frontend-Anwendung hinzufügen, die über Ihre Shell bereitgestellt werden soll, my-modules aktualisieren und richtig konfigurieren müssen. So gehen keine Anwendungen mehr verloren, jeder weiß, wo sie sich befinden.

Lokale Entwicklung (MF-App als Standalone)

Lassen Sie uns nun über etwas sprechen, das Sie noch nicht gesehen haben – @gcore/my-panel. Sie haben es vielleicht noch nicht in der Konfiguration des Module Federation-Webpacks gesehen, aber es war die ganze Zeit da und hat unermüdlich hinter den Kulissen gearbeitet.

Die Rolle von @gcore/my-panel besteht darin, uns bei der Initialisierung des Widgets zu helfen. Es verarbeitet Widget-Nachrichten, sendet sie über Widget-Nachrichten und macht auch das Gegenteil. Und das ist noch nicht alles; @gcore/my-panel dient einer weiteren wichtigen Rolle während der lokalen Entwicklung und ermöglicht es uns, unsere Micro-Frontend-Anwendung als eigenständige Anwendung auszuführen.

Also, wie funktioniert es? Nun, in einer Micro-Frontend-Anwendung sollten Sie es, ähnlich wie in der Shell-Anwendung, während des Initialisierungsprozesses initialisieren. So gehen wir in unserem app.init.ts vor::

export async function initApp( appConfigService: AppConfigService, myModulesService: MyModulesService, myPanelService: MyPanelService, ): Promise<unknown> { await appConfigService.loadConfig(); fillMyModulesService(myModulesService, appConfigService); return myPanelService.init(appConfigService.config.widgetUrl); }

Auf diese Weise ist es uns gelungen, @gcore/my-panel zu integrieren und effektiv in unseren Anwendungen zu nutzen, was es zu einem unverzichtbaren Bestandteil unserer Migration zu einer Micro-Frontend-Architektur macht.

Wenn Sie genau hinschauen, werden Sie in der Tat einen weiteren Schlüsselvorgang sehen, der in unserer Funktion initApp stattfindet. Wir füllen unser myModulesService mit Einstellungen aus unserem appConfigService. Mit diesem wichtigen Schritt wird sichergestellt, dass unsere Widgets ordnungsgemäß mit der erforderlichen Konfiguration ausgestattet sind, um in unseren Anwendungen optimal zu funktionieren. Sie können also in Ihrer MF-Anwendung auf der Ebene app.module APP_INITIALIZER bereitstellen:

export function initApp(myPanelService: myPanelService): any { 	return async (): Promise<void> => {     	await myPanelService.init(); 	}; }

Sie fragen sich vielleicht: „Wo ist die umfangreiche Konfiguration, die wir normalerweise in initApp von init.app.ts sehen können?“ Da sind Sie nicht allein! Der Ansatz hat sich tatsächlich geändert. Lassen Sie uns das analysieren.

Initialisierung der Micro-Frontend-Anwendung

Wenn wir unsere Anwendung auf einer Domäne wie localhost:4001 bereitstellen, verhält sie sich genau wie eine Standard-Angular-Anwendung – dank der Magie von myPanelService.init(). Diese Funktion ermöglicht es Entwicklern, in einer vertrauten Umgebung mit ihrer Anwendung zu arbeiten. Betrachten wir diese Anwendung als Mfe1App, die auf localhost:4001 gehostet wird.

Interessant wird es jedoch, wenn wir versuchen, unsere Micro-Frontend-Anwendung in unsere Shell-Anwendung zu laden. Webpack besucht localhost:4001/remoteEntry.js, um das Micro-Frontend-Modul abzurufen. Dies ist in app-routing.module.ts unserer Shell definiert:

{ 	path: 'mfe1App', 	loadChildren: () =>     	loadRemoteModule({         	type: 'manifest',         	remoteName: 'mfe1App',         	exposedModule: './Module',     	}).then((m) => m.Mfe1AppModule), },

Und in unserer mfe.manifest.json:

{   "mfe1App": "<http://localhost:4001/remoteEntry.js>" }

Mit unserer Webpack-Konfiguration von Mfe1App steht nur ein Modul zur Verfügung:

new webpack.container.ModuleFederationPlugin({ 	name: 'mfe1App', 	filename: 'remoteEntry.js', 	exposes: {     	'./Module': './src/app/mfe1App/mfe1App.module.ts', 	}, 	library: {     	type: 'module', 	}, }),

Diese Konfiguration stellt das Modul mfe1App mit der Datei mfe1App.module.ts als Einstiegspunkt und der Datei remoteEntry.js als Datei zum Laden des Moduls bereit. Die Eigenschaft Type wird auf Modul gesetzt, um anzuzeigen, dass das Modul ES-Module verwendet. Und deshalb ist initApp unserer Mfe1App so prägnant – wir initialisieren alles in diesem Modul. Dafür verwenden wir Guards.

Betrachten Sie initMfe1App.guard.ts:

// imports @Injectable() export class InitMfe1AppGuard implements CanActivate { constructor( private myMessagesService: myMessagesService, private configService: AppConfigService, private authService: AuthService, private widgetServive: WidgetService, private mfe1AppService: mfe1AppService, //... @Optional() private myModulesService: myModulesService, ) {} public canActivate( 	route: ActivatedRouteSnapshot, 	state: RouterStateSnapshot, ): Observable<boolean | UrlTree> | Promise<boolean | UrlTree> | boolean | UrlTree { 	this.mfe1AppService.createPrimaryUrlFromRouteSnapshot(route); 	if (this.widgetServive.loaded) {     	return true; 	} 	return this.myMessagesService.messages$.pipe(     	filter((message: WMessage): message is WMessageWidgetLoaded | WGlobalConfigChanged => {         	if (             	checkMyMessageType(message, W_MESSAGE_TYPE.GLOBAL_CONFIG_CHANGED) ||             	checkMyMessageType(message, W_MESSAGE_TYPE.WIDGET_LOADED)         	) {             	return true;         	} else {             	this.myMessagesService.sendMessage({ type: W_MESSAGE_TYPE.GLOBAL_CONFIG_REQUEST });             	return false;         	}     	}),     	take(1),     	tap((message) => this.widgetService.load(message.data)),     	//...     	mapTo(true),     	timeout(1000 * 10), 	); }

Dieser Guard ersetzt das gewohnte APP_INITIALIZER Token und bietet ein neues Zuhause für die gesamte Initialisierungslogik.

Sie haben es getan! Sie können Ihre Micro-Frontend-Anwendungen starten. Für Ihre MF-App ist also APP_INITIALIZERfür die eigenständige Initialisierung und init.guard für das MF-Module. Dieser neue Ansatz rationalisiert den Initialisierungsprozess und bietet Entwicklern ein vertrauteres, Angular-ähnliches Erlebnis. Je mehr sich die Dinge ändern, desto mehr bleiben sie wie sie sind, oder?

Aber wie steht es, wenn etwas schief geht?

providedIn: ‚root‘ ist nicht mehr so freundlich

Wenn Sie Ihre Micro-Frontend-Reise beginnen, kann es zu Turbulenzen kommen, insbesondere wenn Ihre Anwendung aufgrund von Injection-Konflikten nicht so reibungslos startet. Dies kann passieren, weil die meisten Ihrer Anbieter in ‚root‘ bereitgestellt wurden, einer beliebten Technik, die im Angular-Bereich weit verbreitet ist.

Auch wenn dieser Ansatz im Allgemeinen immer noch eine gute Praxis ist, kann er in vielen Fällen für Ihre Micro-Frontend-Apps weniger geeignet sein. Insbesondere wenn einige Ihrer Dienste von anderen Diensten und Konfigurationen abhängig sind, die jetzt im App-Init-Guard initialisiert werden, sollten Sie sie auf der Ebene der Micro-Frontend-Anwendung bereitstellen.

Davon abgesehen kann ProvideIn: ‚root‘ immer noch eine praktikable Wahl für globale, nicht konfigurierbare oder wirklich globale Dienste sein. Sie sollten jedoch Ihre analytischen Fähigkeiten nutzen, um Dienstleistungen dort bereitzustellen, wo sie wirklich benötigt werden.

Vielleicht ist es an der Zeit für eine kleine Umstrukturierung – erwägen Sie, einige dieser globalen Hilfsdienste lokal zu organisieren und sie direkt dort in Komponenten einzubinden, wo sie benötigt werden. Dieser Wandel kann die Modularität und Wartbarkeit Ihrer Anwendung verbessern und sie robuster und einfacher navigierbar machen.

Fazit

Die Reise zu einer Mikro-Frontend-Architektur bei Gcore war voller einzigartiger Herausforderungen. Durch diesen Prozess haben wir eine stärkere und flexiblere Grundlage geschaffen, die es den Teams ermöglicht, sich auf die Entwicklung der bestmöglichen Anwendungen zu konzentrieren.

In einer Welt der Mikro-Frontends müssen Teams Änderungen aus gemeinsam genutzten Bibliotheken nur dann übernehmen, wenn sie ihren Anwendungen direkt zugute kommen. Das bedeutet weniger Unterbrechungen und mehr Zeit für Innovation. Diese Freiheit erfordert jedoch eine klare und vereinbarte Integrationsstrategie, um die Kohärenz zwischen verschiedenen Anwendungen aufrechtzuerhalten und die Häufigkeit von Aktualisierungen zu reduzieren.

Unsere Erfahrung zeigt, dass es beim Übergang zu einer Micro-Frontend-Architektur nicht nur um die Überwindung technischer Hürden geht. Es ist ein Sprung hin zu einer modulareren, effizienteren und skalierbareren Art, Frontends zu erstellen.

Es ist wichtig zu beachten, dass die Micro-Frontend-Architektur zwar immer beliebter wird, es sich jedoch nicht um eine Einheitslösung handelt. Genau wie wir sollten Sie die spezifischen Anforderungen Ihrer Situation berücksichtigen und die Vor- und Nachteile abwägen, bevor Sie den Schritt wagen. Nur weil es der neue Trend ist, bedeutet das nicht unbedingt, dass es auch für Ihr Projekt oder Ihre Organisation geeignet ist.

Viel Glück!

Ähnliche Artikel

Gcore und Northern Data Group arbeiten zusammen, um den globalen Einsatz von KI zu verändern

Gcore und Northern Data Group schlagen gemeinsam ein neues Kapitel der KI für Unternehmen auf. Durch die Kombination von Hochleistungsinfrastruktur und intelligenter Software wird die kommerzielle und technologische Partnerschaft die skalierbare Bereitstellung von KI-Anwendungen unabhängig vom Standort der Nutzer erheblich erleichtern. Im Mittelpunkt dieser aufregenden neuen Partnerschaft steht eine gemeinsame Vision: eine globale, sichere KI-Infrastruktur mit geringer Latenz, die einfach zu nutzen und schnell einsatzbereit ist.Das Intelligence Delivery Network im ÜberblickDie Implementierung von KI beschleunigt sich, aber die Infrastruktur bleibt ein großer Engpass. Viele Unternehmen stoßen auf Hindernisse in Bezug auf Latenz, Compliance und Skalierbarkeit, insbesondere bei der Bereitstellung von Modellen in mehreren Regionen. Der herkömmliche Cloud-Ansatz führt oft gerade dann zu Komplexität und Overhead, wenn Geschwindigkeit und Einfachheit am wichtigsten sind.An dieser Stelle kommt das Intelligence Delivery Network (IDN) ins Spiel.Das IDN ist ein global verteiltes KI-Netzwerk, das entwickelt wurde, um Inferenzen am Edge zu erleichtern. Es kombiniert die hochmoderne Infrastruktur von Northern Data mit Gcore Everywhere Inference, um skalierbare, hochleistungsfähige KI an 180 Standorten weltweit bereitzustellen.Durch die Verlagerung der KI-Workloads näher zu den Endnutzern reduziert IDN die Latenzzeiten und verbessert die Reaktionsfähigkeit – ohne Kompromisse bei Sicherheit oder Compliance. Die georeferenzierte, geobalancierte Architektur gewährleistet Ausfallsicherheit und Datenlokalisierung bei gleichzeitiger Minimierung der Bereitstellungskomplexität.Ein vollständiges Toolkit zur Umsetzung der KIDas IDN ist ein vollständiges KI-Implementierungs-Toolkit, das auf der Cloud-nativen Plattform von Gcore basiert. Die Lösung bietet einen vertikal integrierten Stack, der auf Geschwindigkeit, Flexibilität und Skalierbarkeit ausgelegt ist. Die wichtigsten Komponenten sindManaged Kubernetes für die OrchestrierungEine Container-basierte Deployment Engine (Docker)Eine umfangreiche Modellbibliothek, die Open-Source- und benutzerdefinierte Modelle unterstütztEverywhere Inferenz, die Software von Gcore für die Verteilung von Inferenzen über globale Edge-Points of PresenceDieses Toolset ermöglicht die schnelle und einfache Bereitstellung von KI-Workloads – mit integrierter Skalierung, Ressourcenverwaltung und Beobachtbarkeit. Die Partnerschaft ermöglicht auch den Zugang zu einem der weltweit größten flüssig gekühlten GPU-Cluster, der KI-Teams die Leistung bietet, die sie für anspruchsvolle Workloads benötigen.Unabhängig davon, ob Sie ein neues KI-basiertes Produkt entwickeln oder ein bestehendes Modell skalieren möchten, bietet IDN einen klaren Weg von der Entwicklung bis zur Produktion.Auf Skalierbarkeit und Performance ausgelegtDie gemeinsame Lösung orientiert sich an den Bedürfnissen von Unternehmenskunden. Sie unterstützt mandantenfähige Bereitstellungen, lässt sich in vorhandene Cloud-native Tools integrieren und bietet hohe Leistung, ohne die Kontrolle zu verlieren. Die Kunden erhalten die Flexibilität, die sie benötigen, um die Lösung überall und jederzeit zu implementieren und gleichzeitig Sicherheit und Compliance auf Unternehmensebene zu gewährleisten.Andre Reitenbach, CEO von Gcore, kommentiert: „Diese Zusammenarbeit unterstützt die Mission von Gcore, die Welt überall und jederzeit mit KI zu verbinden. Gemeinsam ermöglichen wir die nächste Generation von KI-Anwendungen mit niedriger Latenz und hoher Skalierbarkeit“.„Wir kombinieren die HPC- und Rechenzentrumsinfrastruktur-Expertise von Northern Data mit der Spezialisierung von Gcore auf Software-Innovation und -Entwicklung“, sagt Aroosh Thillainathan, Gründer und CEO der Northern Data Group. „Damit können wir unsere Vision beschleunigen, eine softwarebasierte KI-Infrastruktur über ein weltweit verteiltes Computernetzwerk bereitzustellen. Wir befinden uns in einer entscheidenden Phase, in der sich der Einsatz von KI-Lösungen weiterentwickelt, und wir glauben, dass diese Partnerschaft ein wichtiger Bestandteil davon sein wird“.Intelligentere und schnellere KI-Implementierung mit Gcore und Northern Data GroupKI ist die neue Grundlage des digitalen Geschäfts. Die globale Bereitstellung sollte kein Team von Infrastrukturingenieuren erfordern. Mit Gcore und der Northern Data Group erhalten Unternehmensteams die Tools und die Unterstützung, die sie benötigen, um KI in großem Umfang und mit hoher Geschwindigkeit zu betreiben.Ganz gleich, was Sie und Ihre Teams mit KI erreichen wollen, das neue Intelligence Delivery Network hilft Ihnen, intelligenter und schneller zu arbeiten.Lesen Sie die vollständige Pressemitteilung

Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

KI-Entwicklungen erobern die Welt im Sturm. Unternehmen sollten sich aber bewusst sein, dass neue Chancen auch neue Herausforderungen mit sich bringen. Dem Impuls, die Technologie zu nutzen, müssen verantwortungsvolle Regel für deren Einsatz vorausgehen. Nur so ist sichergestellt, dass durch KI weder Unternehmen noch ihre Kunden Risiken ausgesetzt sind. Um diesem Anspruch gerecht zu werden, entwickeln Regierungen weltweit Gesetze zur Regulierung von KI und Datennutzung.Sich in einem immer komplexeren Netz von internationalen Vorschriften zurechtzufinden, kann überfordernd sein. Deshalb werden wir in diesem Artikel die Gesetzgebung einiger führender KI-Hubs auf allen Kontinenten aufschlüsseln und Ihnen genau die Informationen zur Verfügung stellen, die Ihr Unternehmen benötigt, um KI optimal zu nutzen – sicher, legal und ethisch vertretbar.Falls Sie unsere früheren Blogs verpasst haben, in denen wir die KI-Vorschriften nach Regionen aufgeschlüsselt haben, lesen Sie sie hier: Nordamerika, Lateinamerika, Europa, APAC, Naher Osten.Um die Zusammenfassung zu lesen, gehen Sie bitte zur Übersichtstabelle.Globale Trends der KI-RegulierungAuch wenn die Vorschriften je nach Standort variieren, haben sich 2024 weltweit mehrere übergreifende Trends herauskristallisiert. Dazu zählen eine Fokussierung auf Datenlokalisierung, risikoabhängige Regulierung und eine Priorisierung des Datenschutzes. Sie sind zu allgemein anerkannten Leitlinien geworden. Das gemeinsame Ziel aller Länder ist es, Innovationen zu fördern und gleichzeitig die Verbraucher zu schützen – auch wenn die einzelnen Regionen diese Ziele auf unterschiedliche Weise zu erreichen versuchen.Viele Länder folgen dem Beispiel der EU, deren KI-Gesetz ein mehrstufiges Regulierungsmodell je nach potenziellem Risikograd vorsieht. Bei diesem System gelten für jede Risikostufe unterschiedliche Anforderungen: Für Hochrisikoanwendungen, die entweder die öffentliche Sicherheit oder Bürgerrechte betreffen, gilt eine andere Sicherheitsstufe als für allgemeine KI-Anwendungen, bei denen die Risiken weniger hoch eingestuft werden.Europa: strukturiert und stringentEuropa hat einige der strengsten KI-Vorschriften der Welt mit Schwerpunkt Datenschutz gemäß der DSGVO sowie dem neuen risikoabhängigen KI-Gesetz. Dieser Ansatz beruht vor allem darauf, dass die EU den Schwerpunkt auf Verbraucherrechte legt und dafür sorgt, dass die Sicherheit der Nutzerdaten durch die digitale Technologie gewährleistet wird. Das vorgeschlagene KI-Gesetz der EU, über das noch verhandelt wird und das bis 2025 verabschiedet sein soll, stuft KI-Anwendungen nach den Risikoklassen „inakzeptables Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „niedriges Risiko“ ein. Risikoreiche KI-Tools, wie sie bei biometrischer Identifizierung oder Finanzentscheidungen eingesetzt werden, müssen strenge Standards in Bezug auf Datenverwaltung, Transparenz und menschliche Aufsicht erfüllen.Einige EU-Länder haben zusätzliche Standards zum EU-Rahmen eingeführt, insbesondere für mehr Datenschutz und Kontrolle. Der deutsche DSK-Leitfaden zum Beispiel konzentriert sich auf die Rechenschaftspflicht großer Sprachmodelle (LLM) und fordert mehr Transparenz, menschliche Kontrolle und die Zustimmung zur Datennutzung.Unternehmen, die KI in Europa einsetzen wollen, müssen sowohl die einheitlichen Anforderungen des KI-Gesetzes als auch die mitgliedsspezifischen Vorschriften berücksichtigen, die eine differenzierte und strenge Compliance-Landschaft schaffen.Nordamerika: neue VorschriftenDie Vorschriften für künstliche Intelligenz in Nordamerika sind weit weniger einheitlich als die in Europa. Die USA und Kanada sind noch dabei, ihre jeweiligen KI-Rahmenregelungen auszuarbeiten, wobei der derzeitige Ansatz der USA weniger streng und zugleich innovationsfreundlicher ist, während Kanada eine zentralisierte Steuerung bevorzugt.Die Vereinigten Staaten arbeiten mit einem Hybridmodell aus bundesstaatlichen Richtlinien, wie dem Blueprint for an AI Bill of Rights, sowie einzelstaatlichen Gesetzen, wie dem California Consumer Privacy Act (CCPA) und dem Virginia Consumer Data Protection Act (VCDPA), die dazu dienen, einige der strengeren Datenschutzvorschriften durchzusetzen. Die zweistufige Vorgehensweise ähnelt dem in der EU, wo es sowohl Vorschriften auf EU-Ebene als auch auf Länderebene gibt.Der grundsätzlich liberale Ansatz der USA entspricht dem dortigen Verständnis der freien Marktwirtschaft und räumt Innovation und Wachstum den Vorrang vor strengen Sicherheitsmaßnahmen ein. Doch nicht alle Staaten machen sich einen solch freizügigen Umgang zu eigen. Die Divergenz zwischen strengen einzelstaatlichen Gesetzen und eher lockeren Bundesrichtlinien kann zu einer fragmentierten Regulierungslandschaft führen, die für Unternehmen nur sehr schwer zu durchschauen ist.Asien-Pazifik (APAC): divergierende Strategien mit Fokus auf InnovationDie APAC-Region entwickelt sich schnell zu einem globalen Spitzenreiter in Sachen KI-Innovation, deren wichtigsten Märkte das technologische Wachstum in verschiedenen Sektoren maßgeblich vorantreiben. Die Regierungen in der Region haben darauf mit der Schaffung von Rahmenbedingungen reagiert, die den verantwortungsvollen Einsatz von KI und die Datensouveränität in den Vordergrund stellen. Indiens künftiges Gesetz zum Schutz digitaler personenbezogener Daten (Digital Personal Data Protection Bill, DPDPB), Singapurs Modellrahmen für KI-Governance (Model AI Governance Framework) und Südkoreas Gesetz zur Förderung der KI-Industrie (AI Industry Promotion Act) werfen ein Schlaglicht auf die regulatorische Vielfalt in der Region und unterstreichen gleichzeitig die gemeinsame Forderung nach Transparenz und Datenlokalisierung.Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in der APAC-Region. Länder wie China setzen beispielsweise einige der weltweit strengsten Gesetze zur Datenlokalisierung durch, während Japan „Soft-Law“-Prinzipien eingeführt hat und bald verbindliche Vorschriften erwartet. Diese unterschiedlichen Ansätze spiegeln die spezifische Balance zwischen Innovation und Verantwortung in jedem Land wider.Lateinamerika: neue Normen für den DatenschutzDie lateinamerikanische KI-Regulierungslandschaft befindet sich noch in der Entstehungsphase, wobei ein gemeinsamer Schwerpunkt auf dem Datenschutz liegt. Brasilien, das in der Region führend bei der digitalen Regulierung ist, erließ das Allgemeine Datenschutzgesetz (General Data Protection Law, LGPD) ein, das in seinem datenschutzfreundlichen Ansatz – ähnlich wie das argentinische Datenschutzgesetz– eng an die DSGVO angelehnt ist. Mexiko prüft ebenfalls eine KI-Gesetzgebung und hat bereits unverbindliche Leitlinien herausgegeben, in denen ethische Grundsätze und Menschenrechte betont werden.Während sich die regionale KI-Politik noch in der Entwicklung befindet, tendieren andere lateinamerikanische Länder wie Chile, Kolumbien, Peru und Uruguay zu Rahmenwerken, die Transparenz, die Zustimmung der Nutzer und menschliche Kontrolle in den Vordergrund stellen. Mit der zunehmenden Verbreitung von KI werden die lateinamerikanischen Länder wahrscheinlich dem Beispiel der EU folgen und risikobasierte Vorschriften einführen, die sich mit Hochrisikoanwendungen, Datenverarbeitungsstandards und Datenschutzrechten befassen.Naher Osten: Zentren für KI-InnovationenDie Länder des Nahen Ostens investieren erheblich in KI, um das Wirtschaftswachstum anzukurbeln, weshalb auch die Politik besonders innovationsfreundlich ist. In vielen Fällen liegt der Schwerpunkt der Politik sowohl auf der Entwicklung technologischer Spitzenleistungen und der freiwilligen Einhaltung durch die Unternehmen als auch auf strengen gesetzlichen Anforderungen. Dies macht die Region zudem besonders komplex für Unternehmen, die sich bemühen, sich den Bedingungen jedes Landes anzupassen.Die VAE wollen sich durch Initiativen wie die UAE National AI Strategy 2031 als weltweit führend im KI-Sektor positionieren. Die Strategie umfasst ethische Leitlinien, legt aber auch Wert auf eine innovationsfreundliche Politik, die Investitionen anzieht. Saudi-Arabien geht einen ähnlichen Weg. Vorschriften wie die Standards für Datenmanagement und den Schutz personenbezogener Daten (Data Management and Personal Data Protection Standards)konzentrieren sich auf Transparenz und Datenlokalisierung, um die Daten der Bürger zu schützen und gleichzeitig die rasche Entwicklung von KI in allen Bereichen zu fördern. Israels KI-Regulierung stützt sich auf flexible, in den Datenschutzgesetzen verankerte Richtlinien, einschließlich des Datenschutzgesetzes (Privacy Protection Law, PPL), das 2024 geändert wurde, um es an die DSGVO der EU anzupassen.Übersichtstabelle mit ZusammenfassungRegionLand/RegionVorschrift/RichtlinieSchwerpunktAuswirkungen auf die WirtschaftEuropaEUKI-Gesetz (geplant)Risikoabhängige KI-Klassifizierung; hohe Standards bei Datenverwaltung, Transparenz und menschlicher AufsichtHöhere Aufwände bei Compliance, mögliche Verzögerungen bei der Einführung von KI aufgrund strikter Auflagen EUDatenschutzgrundverordnung (DSGVO)Datenschutz, Zustimmung zur Datenverarbeitung, Beschränkungen für grenzüberschreitende DatenübertragungenErhöhte Betriebskosten für die Einhaltung der Vorschriften, Herausforderungen für die globale Datenübertragung und -speicherungNordamerikaUSAEntwurf für ein KI-GrundgesetzKI-Sicherheit, Datenschutz, Fairness; unverbindliche staatliche LeitlinienFlexibilität ermöglicht Innovation, aber Gesetze auf Länderebene erhöhen das Risiko der Fragmentierung von Vorschriften USA (Bundesstaaten)California Consumer Privacy Act (CCPA) & Virginia Consumer Data Protection Act (VCDPA)Datenschutz, Verbraucherdatenschutz, strenge Einhaltung der Vorschriften zur DatenverarbeitungErhöhte gesetzliche Anforderungen für Unternehmen, die in strengen Bundesstaaten tätig sind KanadaArtificial Intelligence and Data Act (AIDA) (geplant)Nationale KI-Ethik und Datenschutz; Transparenz, Verantwortlichkeit für die Nutzung personenbezogener DatenErfordert Investitionen in KI-Auditsysteme und Dokumentation KanadaPersonal Information Protection and Electronic Documents Act (PIPEDA)Datentransparenz, Zustimmung der Nutzer, Verantwortlichkeit bei der Verwendung personenbezogener DatenBietet Organisationen die Möglichkeit, durch Transparenz das Vertrauen ihrer Kunden zu gewinnenAPAC (Asien-Pazifik)IndienDigital Personal Data Protection Bill (DPDPB)Datenschutz, Einwilligung der Nutzer, Datensouveränität, LokalisierungBetriebskosten für Systeme zur Datenlokalisierung, limitiert grenzüberschreitenden Datenfluss SingapurModell eines Rahmenwerks für KI-GovernanceVerantwortungsvolle KI-Nutzung, Data Governance, TransparenzUnternehmen, die sich frühzeitig an den Anforderungen orientieren, sichern sich einen Wettbewerbsvorteil SüdkoreaAI Industry Promotion ActUnterstützung der KI-Industrie, Transparenz, DatenlokalisierungFördert KI-Innovationen, bringt aber Lokalisierungskosten für internationale Unternehmen mit sich ChinaGesetze zur DatenlokalisierungStrenge Datenlokalisierung, Hoheit über die DatenverarbeitungDie Datenlokalisierung ist mit Kosten für die Einhaltung der Vorschriften verbunden und kann für ausländische Unternehmen, die in China tätig sind, Hindernisse darstellen JapanGesetz zum Schutz der Privatsphäre (Soft-Law-Grundsätze)Schutz der Privatsphäre, künftige verbindliche Vorschriften erwartetKurzfristige geschäftliche Flexibilität mit dem Potenzial für zukünftige Kosten für Compliance, wenn verbindliche Vorschriften eingeführt werdenLateinamerikaBrasilienAllgemeines Datenschutzgesetz (General Data Protection Law, LGPD)Datenschutz, Einwilligung in die Datenverarbeitung, Transparenz bei der DatennutzungDie Angleichung an die DSGVO kann europäischen Unternehmen den Einstieg erleichtern, birgt aber auch das Potenzial, die Kosten für die Einhaltung der Vorschriften zu erhöhen MexikoEthische Grundsätze der KI (nicht bindend)Ethische Grundsätze, Menschenrechte, Leitlinien für den verantwortungsvollen Umgang mit KIMinimale Compliance-Anforderungen, ein „Soft-Law“-Ansatz ermöglicht Unternehmen Flexibilität ArgentinienGesetz zum Schutz personenbezogener DatenDSGVO-konform; Einwilligung, Datenschutz, Nutzerrechte  ChileNational Intelligence PolicyMenschenrechte, Transparenz, Vermeidung von Bias beim Einsatz von KIGeringe Compliance-Kosten, aber Fokus auf ethische KI-Praktiken erforderlich KolumbienNational Policy for Digital TransformationEthische KI-Nutzung, verantwortungsvolle Entwicklung, DatensouveränitätFokus auf ethische Praktiken könnte Wettbewerbsvorteile bei öffentlichen Ausschreibungen schaffen PeruNationale Strategie für KIKI-Infrastruktur, Ausbildung von Fachkräften, ethische DatenpraktikenSchafft Möglichkeiten für Unternehmen, die sich mit KI-Schulungen und -Infrastrukturen befassen, erfordert jedoch ethische Orientierung UruguayAktualisierte KI-Strategie (in Arbeit)Governance in der öffentlichen Verwaltung, KI-InnovationErleichterung des Marktzugangs für innovationsorientierte Unternehmen trotz anspruchsvoller Anpassung an Governance-RahmenbedingungenNaher OstenVAELeitfaden für KI-Ethik und für die Einführung von KIEthische Standards, Datenschutz, verantwortungsvoller Einsatz von KIUnterstützt ethische KI-Entwicklung mit minimaler regulatorischer Belastung VAEDubai International Financial Center (DIFC) DatenschutzbestimmungenDatennutzung in KI-Anwendungen, Datenschutzrechte, DatenlokalisierungKann die Datenübertragung erschweren, positioniert Dubai aber als führendes KI-Land VAEKI-ChartaGovernance, Transparenz und Datenschutz in der KI-PraxisFördert die internationale Zusammenarbeit und betont den verantwortungsvollen Einsatz von KI Saudi-ArabienStandards für Datenmanagement und Schutz personenbezogener DatenTransparenz, Datenlokalisierung, minimale Einschränkungen für KI-InnovationenUnterstützt Innovation, erhöht aber Kosten für lokalisierte Datenverarbeitung Saudi-ArabienEthische Grundsätze der KI und Richtlinien für generative KIEthische Standards, verantwortungsvolle KI-Nutzung, Leitlinien für die IndustrieNiedrige Compliance-Kosten fördern Innovation IsraelPrivacy Protection Law (PPL) und KI-PolitikDatenschutz, DSGVO-konforme Änderungen (KI-Politik), ethische und flexible KI-RegulierungFlexibilität für ethisch handelnde Unternehmen, Angleichung an DSGVO kann europäische Zusammenarbeit erleichternCompliance-Management angesichts sich überschneidender VorschriftenCompliance-Management stellt schon immer eine Herausforderung dar. Angesichts der vielfältigen und oft widersprüchlichen Anforderungen, die weltweit gelten, ist die Einhaltung von Vorschriften heute jedoch schwieriger denn je. International tätige Unternehmen müssen eine Balance zwischen der Einhaltung strenger Vorschriften wie der EU-Datenschutzgrundverordnung (DSGVO) oder den chinesischen Gesetzen zur Datenlokalisierung und der Einhaltung flexiblerer oder innovationsorientierter Rahmenwerke in Ländern wie Singapur und Saudi-Arabien finden. Unternehmen sind gefordert, ihre Abläufe an die unterschiedlichen Standards für Datenschutz, Transparenz und Governance anzupassen, was zu höheren Kosten und betrieblicher Ineffizienz führen kann. Diese Fragmentierung der Vorschriften zwingt Unternehmen oft zu erheblichen Investitionen in juristische Expertise, in Compliance-Infrastruktur und in maßgeschneiderte operative Strategien, um widersprüchliche Anforderungen zu erfüllen.Vereinfachung globaler KI-Compliance mit GcoreFür international tätige Unternehmen stellt die Einhaltung unterschiedlicher KI-Vorschriften eine große Hürde dar. State-of-the-Art-Technologien wie Sovereign Cloud und Edge Computing eröffnen jedoch neue Möglichkeiten, diese Standards zu erfüllen. Sovereign Clouds ermöglichen die Datenspeicherung und -verarbeitung innerhalb bestimmter Regionen, was es den Unternehmen erleichtert, die Gesetze zur Datenlokalisierung einzuhalten und gleichzeitig von der Skalierbarkeit der Cloud zu profitieren. Anbieter wie Gcore bieten Lösungen mit einem weltweiten Netz von Datenzentren an, die globalen Unternehmen einen nahtlosen Betrieb über Grenzen hinweg ermöglichen.Gcore ist führend im Edge Computing, das als Ergänzung zur Lokalisierung die Datenverarbeitung näher am Entstehungsort der Daten ermöglicht. Dies verringert den Bedarf an grenzüberschreitenden Datenübertragungen und verbessert sowohl Latenzzeit als auch Netzwerkeffizienz. Dies ist besonders vorteilhaft für KI-Anwendungen in Bereichen wie autonomes Fahren und Telemedizin, in denen sowohl Geschwindigkeit als auch Konformität entscheidend sind. Darüber hinaus vereinfacht Gcore die Einhaltung von Vorschriften wie der EU-DSGVO und dem KI-Gesetz, indem es dazu beiträgt, dass sensible Daten sicher und innerhalb der regionalen Grenzen bleiben.Entdecken Sie Gcore Inference at the Edge für die lückenlose Einhaltung von gesetzlichen Vorschriften

Edge Cloud-Updates für Dezember 2024

Wir freuen uns, Ihnen die neuesten Erweiterungen unserer Edge Cloud-Plattform vorstellen zu können, mit denen Sie mehr Flexibilität, Zuverlässigkeit und Kontrolle über Ihre Infrastruktur erhalten. Die Updates umfassen die Unterstützung mehrerer öffentlicher IPs für Bare Metal und verstärkte Maßnahmen zum Schutz vor Missbrauch. Für Neukunden haben wir ein exklusives Angebot für die Aktivierung von Bare Metal-Servern. Alle Details hierzu finden Sie in diesem Blog.Unterstützung mehrerer öffentlicher IPs für Bare MetalWir führen die Unterstützung mehrerer öffentliche IPs für Bare Metal-Server in dedizierten öffentlichen Subnetzen ein und erhöhen damit ihre Flexibilität und Zuverlässigkeit. Mit diesem Update können Sie zur Sicherung einer nahtlosen Servicekontinuität mehrere öffentliche IP-Adressen konfigurieren und so die Stabilität Ihrer Infrastruktur erhöhen. Mit mehreren IPs bleiben Ihre Dienste ohne Unterbrechung online, selbst wenn eine IP-Adresse ausfallen sollte.Diese Funktionalität bietet eine hohe Flexibilität und ermöglicht es Ihnen, Ihren Betrieb mühelos zu skalieren. Besonders nützlich ist dies bei der Bewältigung unterschiedlicher Workloads, der Steuerung des Datenverkehrs und bei komplexen Hosting-Umgebungen. Es ist zudem eine ideale Lösung für Hypervisor-Umgebungen, in denen die Trennung des Datenverkehrs über verschiedene IPs unerlässlich ist.Das müssen Sie wissen, bevor Sie loslegen:Diese Funktion funktioniert ausschließlich mit einem dedizierten öffentlichen Subnetz.Um diese Funktion zu aktivieren, stellen Sie bitte eine Anfrage an unser Support-Team.Die Anzahl der unterstützten öffentlichen IPs ist durch die Größe des dedizierten Subnetzes begrenzt, das Ihrem Bare Metal-Server zugewiesen ist.Bitte wenden Sie sich an unser Support-Team, wenn Sie künftig mehrere öffentliche IPs nutzen möchten.Verschärfte Maßnahmen zur Vermeidung von MissbrauchWir haben neue Maßnahmen zum Schutz vor Missbrauch ergriffen, um problematische Datenverkehrsmuster zu erkennen und einzudämmen, die Zuverlässigkeit der Services zu verbessern und Ihre Infrastruktur vor gefährlichen Aktivitäten zu sichern. Diese Updates tragen dazu bei, Ihr Netzwerk zu schützen und eine konsistente Leistungsfähigkeit Ihrer Applikationen zu erzielen.Weitere Informationen finden Sie in unserer Produktdokumentation.Testen Sie Bare Metal diesen Monat mit 35 % RabattGcore Bare Metal-Server sind die perfekte Wahl, um herausragende Performance zu erzielen und auch die anspruchsvollsten Workloads zu bewältigen. Durch ihre globale Verfügbarkeit bieten sie eine zuverlässige, leistungsstarke und skalierbare Lösung, wo immer Sie sie brauchen. Für begrenzte Zeit erhalten Neukunden zwei Monate lang 35 % Rabatt auf High-Frequency Bare Metal-Server*.Falls Sie von Ihrem Anbieter während Spitzenzeiten enttäuscht wurden oder Ihre Leistungsfähigkeit für 2025 ausbauen möchten, ist das die Gelegenheit für Sie. Nutzen Sie das Angebot bis zum 7. Januar, um sich einen der Rabatte für die ersten 500 Kunden zu sichern.Nutzen Sie das volle Potenzial der Edge CloudDiese Updates unterstreichen unser Engagement, Ihr Unternehmen fortlaufend mit Tools und Funktionen zu unterstützen, die Ihre Anforderungen erfüllen. Ob es um die Erhöhung von Flexibilität, einfacheres Server-Management oder bessere Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Ob es um die Erhöhung von Flexibilität, einfacheres Server-Management oder mehr Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Entdecken Sie Bare Metal von Gcore* Hinweis: Dieses Angebot gilt bis zum 7. Januar 2025. Der Rabatt gilt für zwei Monate ab Beginn des Abonnements und exklusiv für Neukunden, die High-Frequency Bare Metal-Server aktivieren. Der Rabatt erlischt automatisch nach zwei Monaten. Das Angebot ist auf die ersten 500 Aktivierungen beschränkt.

Die neuen FastEdge-Updates für November

Für FastEdge, unsere serverlose Edge-Computing-Lösung, veröffentlichen wir diesen Monat Verbesserungen, die Workflows vereinfachen, die Sicherheit erhöhen und das Anwendungsmanagement optimieren. Kunden von FastEdge haben jetzt Zugang zu Secret Storage Support, CLI und Konfigurationsvorlagen. Außerdem haben wir die Steuerung des Gcore-Kundenportals verbessert. Das sind die Neuerungen:Secret Storage SupportDie Verwaltung sensibler Informationen ist eine zentrale Herausforderung für moderne Anwendungen. Mit dem Secret Storage Support haben Sie jetzt Zugriff auf ein robustes System zur Verschlüsselung und Verwaltung von API-Schlüsseln, Anmeldeinformationen, Token und anderen sensiblen Daten in den Umgebungsvariablen Ihrer Anwendung.Das bedeutet für Sie Folgendes:Verbesserte Sicherheit: Schützen Sie vertrauliche Informationen mit den neuesten Verschlüsselungstechniken und verringern Sie so das Risiko von absichtlichen oder versehentlichen Datenlecks.Schlankere Verwaltung: Vereinfachen Sie Ihre Anwendungskonfiguration mit einem einzigen, sicheren Workflow für Umgebungsvariablen.Einhaltung gesetzlicher Vorschriften: Erfüllen Sie die strengen Datenschutz- und Datensicherheitsstandards und schützen Sie Ihre Anwendungen damit vor Verstößen und aufsichtsrechtlichen Konsequenzen.CLI (Command Line Interface)Die FastEdge-CLI ist ein leistungsstarkes Tool, das Entwicklern und DevOps-Teams die direkte Interaktion mit FastEdge über eine Befehlszeilenschnittstelle ermöglicht. Diese Funktion vereinfacht Arbeitsabläufe, indem sie eine Reihe von Befehlen für das Deployment Management, die Überwachung der Performance sowie die Integration in bestehenden CI/CD-Pipelines bietet. Darüber hinaus unterstützt sie lokale Tests, mit denen Teams Deployment-Umgebungen replizieren und Änderungen in Echtzeit erproben können, bevor sie live gehen.Das bedeutet für Sie Folgendes:Effiziente Automatisierung: Verringern Sie menschliche Fehler durch die Automatisierung von Aktualisierungen, Skalierung und der Verwaltung von Konfigurationen.Nahtlose Integration: Optimieren Sie Ihre CI/CD-Pipelines mit FastEdge, um schnellere Entwicklungszyklen, kürzere Markteinführungszeiten und geringeren Verwaltungsaufwand zu ermöglichen.Verbesserte Kontrolle: Verwenden Sie die CLI, um Einstellungen und Deployments zu verwalten, und geben Sie Entwicklern die nötige Flexibilität, Prozesse an ihre individuellen Anforderungen anzupassen.Erhöhte Flexibilität: Testen und debuggen Sie Ihre Anwendungen lokal, um Änderungen vor der Bereitstellung zu validieren, Risiken zu reduzieren und bessere Ergebnisse zu erzielen.Optimierte Entwicklung: Vereinfachen Sie Routineaufgaben, damit sich Ihre Teams ganz auf Innovationen und auf die Verbesserung der Performance Ihrer Anwendungen konzentrieren können.Wenn Sie den Umgang mit FastEdge CLI kennenlernen und die vollständige Dokumentation lesen möchten, besuchen Sie das FastEdge CLI GitHub-Repository.Vorlagen für eine schnelle KonfigurationVordefinierte Vorlagen optimieren die Bereitstellung von FastEdge-Services, indem sie die Konfiguration für gängige Anwendungsfälle erheblich vereinfachen. Diese Vorlagen bieten mehrere entscheidende Vorteile für Nutzer. Die vordefinierten Optionen für Caching, Sicherheit und Lastausgleich erlauben eine schnelle und fehlerfreie Einrichtung, die viel Zeit bei der Bereitstellung spart. Durch standardisierte Konfigurationen für alle Bereitstellungen sorgen die Vorlagen für Konsistenz im gesamten System, was Fehler reduziert und die Stabilität erhöht. Obwohl die Vorlagen die genannten standardisierten Vorteile bieten, sind sie flexibel und können problemlos Ihren spezifischen Anforderungen angepasst werden. Indem sie es Ihnen ermöglichen, konsistente Anpassungen in Ihrer gesamten Netzwerkinfrastruktur vorzunehmen, vereinfachen sie sowohl die Skalierungs- als auch die Wartungsprozesse.Verbesserte Verwaltung im Gcore-KundenportalDas aktualisierte Gcore-Kundenportal bietet erweiterte Tools für die Verwaltung von FastEdge-Services. So können Partner und Wiederverkäufer Kundeneinstellungen besser kontrollieren und Probleme beheben.Die zentrale Verwaltungsschnittstelle erlaubt es Ihnen, Kundeneinstellungen schnell zu ändern. Das spart Zeit und vereinfacht die Konfigurationsprozesse für Ihren Kundenstamm. Neuen Kunden können Sie benutzerdefinierte Vorlagen zur Verfügung stellen, die einen einheitlichen und effizienten Prozess möglich machen, der das Onboarding beschleunigt. Die systemeigenen Diagnosen und Auswertungen in Echtzeit helfen Ihnen, Anwendungsprobleme schneller zu beheben und Serviceausfälle zu minimieren. Außerdem können mit den Verbesserungen die Serviceleistungen für mehrere Kunden einfach verwaltet und skaliert und gleichzeitig konsistente Konfigurationen für den gesamten Kundenstamm gewährleistet werden.Bleiben Sie über künftige FastEdge-Updates informiertDiese Updates – in Kombination mit FastEdge, dem erweiterten Funktionsumfang unserer serverlosen Edge-Computing-Lösung – machen es einfacher denn je, sichere, skalierbare und leistungsstarke Anwendungen zu implementieren. Freuen Sie sich also auf weitere Verbesserungen im nächsten Monat!

Absicherung von Webanwendungen und APIs am Edge: die Leistungsfähigkeit von Edge WAAP

Da Anwendungsarchitekturen immer verteilter werden, erfordert die Sicherung von Webanwendungen und APIs einen proaktiven, anpassungsfähigen Ansatz, der über herkömmliche Web Application Firewalls (WAFs) hinausgeht. Lösungen zum Schutz von Webanwendungen und Anwendungsprogrammierschnittstellen (WAAP) verbessern die Sicherheit, indem sie die Schutzmaßnahmen näher an die Endbenutzer und potenzielle Bedrohungen heranbringen. Diese strategische Positionierung verringert die Latenzzeit, was zu schnelleren Reaktionszeiten und einem nahtloseren Benutzererlebnis führt. Edge-basiertes WAAP senkt das Risiko von Ausfallzeiten und schützt wichtige Ressourcen, indem es Bedrohungen wie DDoS-Angriffe, Bot-Traffic und API-Missbrauch abfängt, bevor sie die Kerninfrastruktur erreichen.Edge-basiertes WAAP bietet dynamische Skalierbarkeit und erhöhte Geschwindigkeit und bewältigt effizient große Datenmengen und unerwartete Nachfragespitzen. Verteilt auf zahlreiche globale Präsenzpunkte bietet sie robuste, flexible Sicherheit, die sich in Echtzeit an Bedrohungen und Angriffe anpasst und damit perfekt für den Schutz von Anwendungen in komplexen Multi-Cloud-Umgebungen geeignet ist.Warum WAAP am Edge?Bei zentralisierten WAAP-Lösungen steht in der Regel eine einzige Sicherheitsanwendung oder Software-Instanz zwischen dem Internet und der Anwendung. Die zentralisierte WAAP ist zwar in bestimmten Szenarien wirksam, hat aber ihre Grenzen, insbesondere wenn es um globale Anwendungen und verteilte Infrastrukturen geht. Zu den Nachteilen gehören:Latenz: Datenverkehr, der über einen zentralen Punkt geleitet wird, kann zu Latenz führen, was die Anwendungsleistung beeinträchtigt.Ein einziger Ausfallpunkt: Die Kompromittierung der zentralen Sicherheitsanwendung kann die gesamte Anwendung stark beeinträchtigen.Skalierbarkeit: Die Skalierung von zentralisierten Lösungen zur Bewältigung des zunehmenden Datenverkehrs und der sich entwickelnden Bedrohungslandschaft kann eine Herausforderung darstellen.Edge-WAAP hingegen verteilt Sicherheitsfunktionen auf mehrere Punkte im Netzwerk, häufig näher am Edge. Dieser Ansatz bietet mehrere Vorteile: geringere Latenzzeiten, bessere Leistung, höhere Sicherheit und größere Flexibilität. Betrachten wir sie der Reihe nach.Geringere LatenzzeitDurch die Nutzung der Leistungsfähigkeit von CDN, um die Sicherheit in die Nähe des Endnutzers zu bringen, reduziert Edge WAAP die Latenzzeit erheblich, da der Datenverkehr näher an der Quelle verarbeitet wird. Die Latenzzeit steigt mit zunehmender physischer Entfernung zwischen Benutzern und Rechenzentren, so dass die Verringerung dieser Entfernung der Schlüssel zur Verbesserung der Reaktionszeiten ist. Dank des umfangreichen PoP-Netzwerks von Gcore auf der ganzen Welt werden Daten stets in der Nähe der Endnutzer verarbeitet. Dies reduziert die Datenübertragungsdistanz und ermöglicht eine schnellere Reaktion bei der Abwehr von Angriffen. Bei herkömmlichen Systemen bedeutet die Zentralisierung der Sicherheitsfunktionen, dass alle Anfragen (einschließlich potenziell böswilliger Anfragen) über eine einzige Stelle laufen, was zu Engpässen und einer Verlangsamung des Dienstes führen kann. Edge WAAP vermeidet dieses Problem, indem es die Sicherheitsfunktionen näher am Ursprung der Anfrage bearbeitet.Dies führt zu einer reibungsloseren und schnelleren Interaktion mit den Kunden, selbst bei Spitzenbelastungen. So könnte beispielsweise eine globale E-Commerce-Plattform Edge WAAP nutzen, um ein nahtloses Einkaufserlebnis in verschiedenen Regionen mit minimalen Verzögerungen zu ermöglichen. Durch niedrige Latenzzeiten verbessert Edge WAAP die Gesamtleistung der Anwendung und bietet die nötige Skalierbarkeit, um schwankende Verkehrsanforderungen zu bewältigen. Diese Struktur ermöglicht es Unternehmen, reaktionsschnelle und zuverlässige Dienste aufrechtzuerhalten, während sie wachsen, und unterstützt sowohl aktuelle als auch zukünftige Skalierungsanforderungen.Verbesserte SicherheitDie Kombination aus geringer Latenzzeit und globaler Netzverteilung macht Edge WAAP sicherer als Standard-WAAP-Lösungen. Indem der Datenverkehr näher an seiner Quelle verarbeitet wird, kann Edge-WAAP Bedrohungen in Echtzeit erkennen und abwehren, wodurch die Verzögerung zwischen der Identifikation böswilliger Aktivitäten und der Reaktion minimiert wird. Dieser Ansatz mit niedriger Latenz verringert das Zeitfenster für Angreifer und garantiert, dass Bedrohungen wie DDoS-Angriffe, Bot-Aktivitäten und API-Missbrauch neutralisiert werden, bevor sie die Kerninfrastruktur erreichen.Darüber hinaus nutzt Edge WAAP ein global verteiltes Netzwerk, um verdächtige Datenverkehrsmuster über Regionen hinweg zu überwachen, was die Transparenz erhöht und die Anwendung von Sicherheitsmaßnahmen auf der Grundlage des geografischen Ursprungs von Bedrohungen ermöglicht. Dieser Ansatz kommt vor allem Unternehmen zugute, die mit sensiblen Daten arbeiten oder Compliance-Anforderungen in mehreren Regionen erfüllen müssen. Durch die Kombination aus geringer Latenzzeit und umfassender, globaler Bedrohungsüberwachung bietet Edge WAAP proaktiven, anpassungsfähigen Schutz, der schnell auf neue Bedrohungen reagieren kann.Größere FlexibilitätEdge WAAP ermöglicht Unternehmen die Anpassung an sich entwickelnde Netzwerktopologien und Anwendungsarchitekturen. Durch die Bereitstellung von WAAP am Edge können Sicherheitsfunktionen verteilt und an ein sich änderndes Netzwerkumfeld angepasst werden, sei es aufgrund von Wachstum, veränderten Datenverkehrsströmen oder neuen Anforderungen an die Bereitstellung. Dank dieser Flexibilität kann WAAP eine Reihe von Architekturen unterstützen, von Multi-Cloud- und Hybrid-Umgebungen bis hin zu komplexeren, regionsspezifischen Konfigurationen.Der Edge-basierte Ansatz von Gcore lässt sich nahtlos in Multi-Cloud- und Hybrid-Umgebungen integrieren und erleichtert Unternehmen die Skalierung und Anpassung von Sicherheitskonfigurationen, wenn sie wachsen. Diese Flexibilität ist besonders wertvoll für Unternehmen, die in neue Regionen expandieren oder neue Technologien einführen, da Edge WAAP sich an ihre individuellen Infrastrukturanforderungen anpassen kann.Garantierte Sicherheit und Leistung mit Edge-basiertem WAAPEdge-basiertes WAAP ist eine leistungsstarke Lösung zur Sicherung moderner Anwendungen und APIs. Gcore WAAP bringt die Sicherheit näher an die Kunden heran und sorgt so für einen schnelleren und effizienteren Schutz dank unseres riesigen globalen Netzwerks von mehr als 180 Präsenzpunkten (PoPs) in mehr als 95 Ländern .Gcore WAAP arbeitet am Edge, um umfassenden Schutz vor DDoS-Angriffen, böswilligen Bots und API-Schwachstellen zu bieten. Außerdem lässt sie sich leicht skalieren, um hohe Datenverkehrsanforderungen in verteilten Multi-Cloud-Systemen zu bewältigen. Erfahren Sie, wie Gcore WAAP weltweit unübertroffene Geschwindigkeit bietet und Ihren Anwendungen robuste Sicherheit in einer Umgebung mit geringer Latenz ermöglicht.Erfahren Sie mehr über Gcore WAAP

Cyber Monday steht vor der Tür. Das gilt auch für die Hacker

Black Friday und Cyber Monday (BFCM) sind zwei der größten Online-Einkaufstage des Jahres. Im Jahr 2023 erreichten die Umsätze im E-Commerce in der Weihnachtszeit allein in den USA mehr als 12 Milliarden Dollar und für dieses Jahr wird ein weiterer Anstieg erwartet. Da das Online-Shopping in den letzten zehn Jahren immer beliebter geworden ist, hat sich die Begeisterung für BFCM auch über die Landesgrenzen hinaus verbreitet und ist heute eine der geschäftigsten Zeiten für Einzelhändler weltweit.Dieser Umsatzanstieg ist zwar eine gute Nachricht für die Unternehmen, doch zieht der Hype auch Cyberkriminelle an, die sich die verstärkte Online-Aktivität zunutze machen wollen. Hier erfahren Sie, warum Hacker BFCM ausnutzen wollen, wie sie dies tun und wie sich Unternehmen vor Hacks in der Weihnachtszeit schützen können.Kenne deinen Feind: Um was geht es für die Hacker?Es gibt mehrere Gründe, warum Cyberkriminelle es auf E-Commerce-Websites abgesehen haben, insbesondere während der geschäftigen Einkaufszeit zum Jahresende.Gestohlene Waren: Der persönliche Gewinn ist oft ein Hauptmotiv. Hacker nutzen ihre technischen Fähigkeiten, um Schwachstellen auf E-Commerce-Websites oder Zahlungsplattformen auszunutzen, um Einzelhändler um ihre Waren zu betrügen, ohne sie zu bezahlen.Angeberei: Hacker sind nicht nur durch finanzielle Belohnungen motiviert. Manche wollen auch im Internet mit dem Chaos prahlen, das sie verursacht haben, vor allem, wenn sie behaupten können, dass sie an den einkaufsreichsten Tagen des Jahres große Websites zum Stillstand gebracht haben.Sabotage von Konkurrenten: Einige Hacker-Aktivitäten gehen auf organisierte Gruppen zurück, die sich einen Vorteil auf dem Markt verschaffen wollen, indem sie ihren Konkurrenten zu einem Zeitpunkt finanziellen Schaden zufügen, an dem sich dies am stärksten auf deren Gewinne und deren Ruf auswirkt.Lösegeldforderungen: Inmitten des Trubels stehlen Hacker private und sensible Daten, um Unternehmen zu erpressen und Geld zu erpressen. Unternehmen könnten in Erwägung ziehen, Hacker zu bezahlen, um sie daran zu hindern, ein Datenleck aufzudecken.Übliche Angriffsmethoden der CyberkriminalitätCyberkriminelle suchen zunehmend nach neuen Wegen, um E-Commerce-Websites anzugreifen. Dies sind nur einige Techniken, die Sie kennen sollten.Automatisierte Scanner: Cyberkriminelle nutzen diese Tools, um Tausende von Websites zu scannen und nach Schwachstellen zu suchen, die sie ausnutzen können. Da der Scanvorgang nicht manuell überwacht werden muss, können die Kriminellen in kurzer Zeit maximalen Schaden anrichten.Phishing-Angriffe: Hacker zielen auch direkt auf Kunden ab. Mithilfe von E-Mails, Pop-up-Fenstern und gefälschten Nachrichten verleiten die Kriminellen Menschen dazu, ihre Konto- und Kreditkartendaten weiterzugeben. Die Kriminellen nutzen diese Daten dann für ihre Einkäufe. Für das Unternehmen können dann Verluste entstehen, wenn es diese betrügerischen Transaktionen zurückerstatten muss.Malware: Malware oder „schädliche Software“ kann ohne Wissen des Eigentümers direkt in ungeschützte E-Commerce-Websites eingeschleust werden. Diese Malware ermöglicht es Kriminellen, unbemerkt Geld, Anmeldeinformationen und andere Benutzerdaten zu stehlen.DDoS-Angriffe: Skrupellose Kriminelle verwenden Hacking-Tools und Bots, um riesige Mengen an Traffic auf eine Website zu leiten. Diese Zunahme des Traffics hindert legitime Kunden daran, auf die Website zuzugreifen, und zwingt sie dazu, bei der Konkurrenz zu kaufen, was zu Umsatzeinbußen für die betroffenen Unternehmen führt.Geschenkkarten-Knacken: Angreifer nutzen die Hochsaison für Geschenke aus, indem sie Millionen von Zahlenvariationen durch Geschenkkartenformulare laufen lassen. Auf diese Weise können sie Geschenkkartennummern mit positivem Kontostand ermitteln und sie verkaufen, bevor der rechtmäßige Karteninhaber die Möglichkeit hat, sie zu benutzen.Kontoübernahmen: Betrüger können mithilfe automatisierter Bots die Anmeldedaten von Kundenkonten übernehmen, um andere böswillige Aktivitäten auszuführen, z. B. die Kontrolle über das Konto zu übernehmen, Datendiebstahl zu begehen und unbefugte Einkäufe zu tätigen.Horten von Lagerbeständen: Feindliche Bots manipulieren das Inventar von Einzelhandels-Websites, indem sie eine Kauftransaktion starten und nicht abschließen. Da viele Online-Shops ihre Lagerbestände in Echtzeit aktualisieren und Artikel während des Transaktionsprozesses als nicht vorrätig kennzeichnen, können echte Kunden keine Artikel kaufen, die eigentlich zum Verkauf stehen, weil sie scheinbar nicht verfügbar sind.Scalping-Angriffe: Cyberkriminelle setzen automatisierte Scalping-Bots ein, um begehrte, stark nachgefragte Produkte wie Konzertkarten, Designerkleidung oder beliebtes Spielzeug zu kaufen. Die Käufe werden dann zu überhöhten Preisen auf Websites Dritter oder auf dem Schwarzmarkt weiterverkauft, sodass sowohl die Unternehmen als auch die Kunden leer ausgehen.So können sich Unternehmen schützenTrotz der Tatsache, dass die Betrüger immer innovativer werden, ist die gute Nachricht, dass fast 99 % der Angriffe durch grundlegende Sicherheitsvorkehrungen verhindert werden können. Zunächst einmal sollten Unternehmen sicherstellen, dass ihr E-Commerce-System und ihre Plugins immer auf dem neuesten Stand sind und dass sie keine nicht vertrauenswürdige Open-Source-Software verwenden. Virtuelles Patching, das Schwachstellen beseitigt, indem es als virtueller Schutzschild fungiert und bösartigen Traffic filtert, kann dieses Problem lösen.Es ist auch ratsam, keine sensiblen Kundendaten auf den Systemen Ihres Unternehmens zu speichern, die über das absolut Notwendige hinausgehen. Das Speichern von Kreditkartennummern und sensiblen Kundendaten ist streng geregelt und erfordert von Unternehmen die Einhaltung von Standards wie PCI DSS oder ISO 2700x. Selbst vorschriftsmäßig vorgehende Unternehmen sollten nur das speichern, was für die Aufrechterhaltung ihrer E-Commerce-Website zwingend erforderlich ist, um das Risiko im Falle eines Cyberangriffs zu minimieren.Der Schutz Ihrer Website ist keine einmalige Aufgabe. Es ist wichtig, regelmäßig nach Schwachstellen im Code und in der Anwendungsschicht einer Website zu suchen. Schwachstellen-Scanner konzentrieren sich auf die Identifizierung und Auflistung von Schwachstellen auf Ihrer Website und dienen als erster Schritt zur Risikominderung.Zu den Tools, mit denen Websites kontinuierlich vor bösartigem Datenverkehr geschützt werden können, gehören WAAP und DDoS-Schutz. Diese arbeiten im Hintergrund, um Ihre Infrastruktur vor häufigen Angriffen zu schützen, bevor sie geschehen, sodass Sie die Folgen nicht abmildern müssen. Wenn Sie diese Aufgaben an einen zuverlässigen Drittanbieter auslagern, können Sie sich entspannt zurücklehnen und wissen, dass Ihre Sicherheitslösung selbst die komplexesten und neuesten Bedrohungen abwehrt.So kann Gcore helfen, Ihre Website abzusichernEs ist noch Zeit, Sicherheitsmaßnahmen für Ihre Website zu implementieren, bevor die Saison der Weihnachtseinkäufe beginnt. Die bewährten Sicherheitslösungen von Gcore, WAAP und DDoS Protection, können zum Schutz Ihrer Website und Ihres E-Commerce-Frameworks beitragen.Wenn Sie Ihre Sicherheitsprobleme im Urlaub mit uns besprechen möchten, nehmen Sie Kontakt mit uns auf. Einer unserer Experten kann Ihnen bei der Entscheidung helfen, was für Ihr Unternehmen das Richtige ist, damit Sie sich auf die Betreuung Ihrer Kunden konzentrieren können, anstatt sich gegen Betrüger zu wehren.Kontaktieren Sie uns, um Ihre Anforderungen an die Cybersicherheit zu besprechen

Melden Sie sich für unseren Newsletter an

Erhalten Sie die neuesten Branchentrends, exklusive Einblicke und Gcore-Updates direkt in Ihren Posteingang.