Neuer Radar Report: DDoS - Trends entdecken, Schutz optimieren.Zum Report

Produkte

Lösungen

Ressourcen

Partner

Warum Gcore

  1. Home
  2. Blog
  3. Unser JIT Packager — eine neue Lösung für HTTP-Streaming mit niedriger Latenzzeit

Unser JIT Packager — eine neue Lösung für HTTP-Streaming mit niedriger Latenzzeit

  • Von Gcore
  • May 31, 2023
  • 7 Min.
Unser JIT Packager — eine neue Lösung für HTTP-Streaming mit niedriger Latenzzeit

Wir freuen uns, eine neue Entwicklung von Gcore bekannt geben zu können: unseren JIT (Just-In-Time) Packager. Diese Lösung ermöglicht das gleichzeitige Streaming über sechs Protokolle: HLS, DASH, L-HLS, Chunked CMAF/DASH, Apple Low Latency HLS und HESP. In diesem Artikel erklären wir, warum HLS- und DASH-Streaming niedrige Latenzzeiten zu einer Herausforderung machen, tauchen in alternative Technologien mit aufregendem Potenzial zur Reduzierung der Latenzzeit ein und erzählen Ihnen dann von unserem JIT Packager — warum wir ihn entwickelt haben, wie er funktioniert, welche Fähigkeiten und Vorteile er bietet und welche Ergebnisse er liefert.

Warum ist es so schwierig, mit den HLS- und DASH-Standardtechnologien eine niedrige Latenzzeit zu erreichen?

Die Schwierigkeit, mit den HLS- und DASH-Standardtechnologien eine niedrige Latenzzeit zu erreichen, ergibt sich aus den empfohlenen Richtlinien für Segmentlänge und Puffergröße, die zu einer Latenzzeit von zwanzig Sekunden oder mehr führen können. Lassen Sie uns untersuchen, warum dies der Fall ist.

Beim herkömmlichen Internet-Streaming werden häufig Technologien wie HLS (HTTP Live-Streaming) und DASH (Dynamic Adaptive Streaming over HTTP) eingesetzt. Diese Protokolle basieren auf HTTP und unterteilen Video- und Audioinhalte in kleine Segmente von wenigen Sekunden Dauer. Diese Segmentierung ermöglicht eine schnelle Navigation, Bitratenumschaltung und Caching. Der Client empfängt ein Textdokument, das die Folge der Segmente, ihre Adressen sowie zusätzliche Metadaten wie Auflösung, Codecs, Bitrate, Dauer und Sprache enthält. Die Einhaltung der empfohlenen Richtlinien für Segmentlängen und Puffergrößen der HLS- und DASH-Protokolle macht es jedoch schwierig, eine niedrige Latenzzeit zu erreichen. Die Latenzzeit kann bis zu zwanzig Sekunden betragen.

Hier ist ein Beispiel: Nehmen wir an, wir initiieren die Transcodierung und erstellen Segmente mit einer Dauer von 6 Sekunden. Als Nächstes beginnen wir mit der Wiedergabe dieses Streams. Das bedeutet, dass der Player zunächst seinen Puffer füllen muss, indem drei Segmente geladen werden. Zu Beginn stellen wir fest, dass die drei vollständig gebildeten und der Echtzeit am nächsten kommenden Segmente die Segmente 3, 4 und 5 sind. Folglich beginnt die Wiedergabe mit dem 3. Segment und die Verzögerung lässt sich leicht anhand der Segmentdauer berechnen, die mindestens 18  Sekunden beträgt.

Durch die Verwendung kürzerer Segmente, z. B. 1–2 Sekunden, können wir die Verzögerung reduzieren. Segmente mit einer Dauer von 2 Sekunden würden zu einer minimalen Verzögerung von 6 Sekunden führen. Dies würde jedoch eine Reduzierung der GOP-Größe (Group of Pictures) erfordern. Die Reduzierung der GOP-Größe verringert die Codierungseffizienz und führt zu einem erhöhten Traffic-Overhead, da jedes Segment nicht nur Video- und Audio-Daten, sondern auch zusätzlichen Overhead enthält. Darüber hinaus entsteht bei jeder Segmentanforderung durch das HTTP-Protokoll ein Overhead.

Das bedeutet, dass kürzere Segmente zu einer größeren Anzahl von Segmenten und damit zu einem höheren Overhead führen. Da eine große Anzahl von Zuschauern ständig Segmente anfordert, würde dies zu einem erheblichen Traffic-Verbrauch führen.

Mit welchen Technologien kann eine Reduzierung der Latenzzeit erreicht werden?

Um beim Streaming eine geringere Latenzzeit zu erreichen, können mehrere spezielle Lösungen genutzt werden:

  1. L-HLS
  2. Chunked CMAF/DASH
  3. Apple Low Latency HLS
  4. HESP

Diese Lösungen unterscheiden sich von den herkömmlichen HLS- und DASH-Protokollen dadurch, dass sie speziell auf ein Streaming mit geringen Latenzzeiten zugeschnitten sind.

Lassen Sie uns nun genauer auf diese Protokolle eingehen.

L-HLS

Bei L-HLS erhält der Client neue Fragmente des letzten Segments, sobald diese verfügbar sind. Dies wird erreicht, indem die Adresse dieses Segments in der Wiedergabeliste mithilfe eines speziellen PREFETCH-Tags deklariert wird. Dadurch kann die Latenzzeit erheblich reduziert und der Datenpfad gemäß den folgenden Schritten verkürzt werden:

  1. Der Server deklariert vorab die Adresse des neuen Live-Segments in der Wiedergabeliste.
  2. Der Player fordert dieses Segment an und erhält seinen ersten Block, sobald dieser auf dem Server verfügbar ist.
  3. Ohne auf den nächsten Datensatz zu warten, spielt der Player den empfangenen Block ab.

Chunked CMAF/DASH

Wenn es um Chunked CMAF/DASH geht, umfasst der Standard Felder, mit denen die Zeitachse, die Aktualisierungsrate, die Verzögerung und der Abstand zur Edge der Wiedergabeliste gesteuert werden. Die wichtigsten Verbesserungen in der Referenz-Player-Version von Dash.js v2.6.8 sind die Unterstützung der Chunked-Transfer-Codierung und der Fetch-API, wo immer möglich, sowie die Bereitstellung von Daten an den Player, sobald diese verfügbar sind.

Die Angabe eines Streams mit niedriger Latenzzeit wird durch die Verwendung der Tags „Latency target“ und „availabilityTimeOffset“ erreicht, mit denen die Zielverzögerung signalisiert und das Laden von Fragmenten ermöglicht wird, bevor die vollständige Segmentbildung abgeschlossen ist.

Durch den Einsatz dieser Technologien ist es möglich, Verzögerungen im Bereich von 2–6 Sekunden zu erreichen, was von der Konfiguration und den Einstellungen sowohl der serverseitigen als auch der Player-seitigen Komponenten abhängig ist. Darüber hinaus besteht eine Abwärtskompatibilität, sodass Geräte, die Formate mit niedriger Latenzzeit nicht kommunizieren können, vollständige Segmente wie zuvor wiedergeben können.

Apple Low Latency HLS

Apple LL-HLS bietet verschiedene Lösungen zur Optimierung der Latenzzeit, einschließlich:

  1. Generieren von Teilsegmenten mit einer Länge von bis zu 200 ms, die in der Wiedergabeliste mit X-PART markiert und vor der Bildung des vollständigen Segments verfügbar sind. Veraltete Teilsegmente werden regelmäßig entfernt und durch vollständige Segmente ersetzt.
  2. Durch das Senden aktualisierter Wiedergabelisten nach Aktualisierungen und nicht auf direkte Anfrage kann der Server die Bereitstellung verzögern.
  3. Es werden nur die Unterschiede der Wiedergabelisten übertragen, um das Datenübertragungsvolumen zu reduzieren.
  4. Ankündigung bald verfügbarer Teilsegmente mit dem neuen PRELOAD-HINT-Tag, sodass Clients frühzeitig Anfragen stellen und Server reagieren können, sobald Daten verfügbar sind.
  5. Ermöglicht einen schnelleren Wechsel der Videoqualität mit dem RENDITION-REPORT-Tag, das Informationen über die letzten Segmente und Fragmente benachbarter Wiedergabelisten aufzeichnet.

Nur Apple LL-HLS funktioniert nativ auf Apple-Geräten und erfordert daher dessen Implementierung für Echtzeit-Streaming auf diesen Geräten.

HESP

HESP (High Efficiency Stream Protocol) ist ein adaptives Video-Streaming-Protokoll, das auf HTTP basiert und für ein Streaming mit extrem niedrigen Latenzzeiten entwickelt wurde. Es ist in der Lage, Videos mit einer Verzögerung von bis zu 2 Sekunden bereitzustellen. Im Gegensatz zu früheren Lösungen erfordert HESP 10-20 % weniger Bandbreite für das Streaming, indem es die Verwendung einer längeren GOP (Group of Pictures)-Dauer ermöglicht.

Mithilfe des Chunked-Transfer-Encodings erhält der Player zunächst ein JSON-Manifest mit Stream-Informationen und Timing. Der Streaming-Prozess erfolgt in zwei Streams: dem Initialisierungsstream und dem kontinuierlichen Stream.

Vom Initialisierungsstream aus kann der Player jederzeit Bilder anfordern, um die Wiedergabe zu starten, da dieser nur I-Frames (Keyframes) enthält. Sobald die Wiedergabe beginnt, wird der kontinuierliche Stream verwendet und der Player kann mit der Wiedergabe beginnen, nachdem er ein beliebiges Bild vom Initialisierungsstream empfangen hat.

Das ermöglicht eine schnelle und unterbrechungsfreie Videoübertragung und -wiedergabe im Player des Benutzers sowie einen nahtlosen Qualitätswechsel. Die Abbildung zeigt ein Beispiel, bei dem zunächst eine Videoqualität abgespielt und dann auf eine andere gewechselt wird, wobei die Anforderung des Initialisierungsstreams einmal erfolgt.

Warum wir unseren eigenen JIT-Packager entwickelt haben

Um all diese Protokolle zu implementieren, haben wir beschlossen, eine eigene Lösung zu entwickeln. Für diese Entscheidung gibt es mehrere Gründe:

  1. Unabhängigkeit von anderen Anbietern: Sich auf die Qualität einer Drittanbieterlösung zu verlassen, bringt Herausforderungen mit sich. Sollten beispielsweise Probleme auftreten, können wir diese erst lösen, wenn der Anbieter sie gelöst hat – vorausgesetzt, dieser ist überhaupt bereit, die notwendigen Änderungen und/oder Verbesserungen vorzunehmen.
  2. Infrastruktur von Gcore: Wir verfügen über unsere eigene globale Infrastruktur, die von Verarbeitungsservern bis hin zu Content Delivery Networks reicht. Unser Entwicklungsteam verfügt über das Fachwissen und die Ressourcen, die zur Implementierung unserer eigenen Lösung erforderlich sind.
  3. Gemeinsame Merkmale der integrierten Technologien: Die gemeinsamen Eigenschaften der von uns bewerteten Technologien ermöglichen eine nahtlose Integration in ein einheitliches System.
  4. Anpassbare Metriken und Überwachung: Mit unserer firmeneigenen Lösung können Metriken und Überwachung nach unseren Vorlieben und mit unseren eigenen Anpassungsoptionen eingerichtet werden.
  5. Anpassungsfähigkeit an unsere Bedürfnisse und die unserer Kunden: Da wir über eine eigene Lösung verfügen, können wir diese schnell an spezifische Aufgaben und Kundenanforderungen anpassen.
  6. Zukünftige Entwicklungsmöglichkeiten: Die Entwicklung unserer eigenen Lösung ermöglicht es uns, uns in jede beliebige Richtung weiterzuentwickeln. Wenn neue Protokolle und Technologien entwickelt werden, können wir sie nahtlos zu unserem bestehenden Stack hinzufügen.
  7. Abwärtskompatibilität mit bestehenden Lösungen: Eine Abwärtskompatibilität mit bestehenden Lösungen ist von wesentlicher Bedeutung. Wir können sorgfältig abschätzen, wie sich neue Innovationen auf die Kunden auswirken könnten, die zuvor auf unsere vorherige Lösung vertraut haben.

Wenn man die spezifischen Technologien berücksichtigt, unterstützen nicht alle Lösungen von Drittanbietern Apple LL-HLS und HESP. Beispielsweise ist der Apple Media Stream Segmenter auf MPEG-2 TS über UDP beschränkt und funktioniert nur unter MacOS, während er Dateien in das Dateisystem hochlädt. HESP-Packager + HTTP Origin hingegen überträgt Dateien über Redis und ist in TypeScript geschrieben.

Es muss hier unbedingt beachtet werden, dass die Verwendung dieser externen Lösungen Ressourcen verbraucht, Verzögerungen und Abhängigkeiten mit sich bringt und sich auf Parallelität und Skalierbarkeit auswirken kann. Darüber hinaus kann die Verwaltung einer Vielzahl von Lösungen die Wartung und den Support erschweren.

Das Funktionsprinzip von JIT Packager

Die Funktionsweise von JIT Packager kann wie folgt skizziert werden:

  1. Der Transcoder sendet Streams an unseren Packager.
  2. Der Packager generiert im Handumdrehen alle notwendigen Segmente und Wiedergabelisten.
  3. Clients fordern Streams vom EDGE-Knoten des CDN an.
  4. Dank der API weiß das CDN bereits, von welchem Server es den Inhalt abrufen muss.
  5. Die Antwort wird im Speicher des Chunked-Proxys zwischengespeichert.
  6. Für alle anderen Clients wird sie direkt aus dem Cache (Zwischenspeicher) bereitgestellt.

Im Durchschnitt erreichten wir eine Caching-Rate von ca. 80 %.

Ergebnisse

Werfen wir einen Blick darauf, was wir mit unserem JIT Packager erreicht haben.

Gleichzeitiges Video-Streaming in den Formaten HLS und DASH und in Formaten mit niedriger Latenzzeit

Wir haben erfolgreich einen einzigartigen JIT Packager entwickelt, der gleichzeitig Videos in HLS, DASH und allen derzeit verfügbaren Streaming-Formaten mit geringer Latenz streamen kann. Er akzeptiert hauptsächlich Video- und Audiostreams im fragmentierten MP4-Format vom Transcoder. Der Server extrahiert direkt alle notwendigen Mediendaten aus den MP4-Dateien und generiert dynamisch Initialisierungssegmente, entsprechende Wiedergabelisten und Videofragmente für das Streaming in allen genannten Streaming-Modi mit minimalen Verzögerungen. Anschließend stehen die Streams für die Verteilung über ein CDN zur Verfügung.

HTTP-Server für die Videoverteilung in verschiedenen Streaming-Formaten

Unsere Lösung arbeitet in einem internen Netzwerk mit HTTP/1.1 ohne TLS. TLS bietet in diesem Zusammenhang keine Vorteile und würde nur unnötigen Overhead verursachen, sodass wir den gesamten Stream noch einmal verschlüsseln müssten. Stattdessen werden die Daten mithilfe des Chunked-Transfer-Encodings übertragen.

Aus diesem Grund haben wir nicht nur einen Packager entwickelt, sondern auch einen HTTP-Server, der Videos in allen zuvor genannten Formaten bereitstellen kann. Darüber hinaus werden für alle Formate die gleichen Video- und Audiostreams verwendet, was eine effiziente Ressourcennutzung gewährleistet.

DVR-Funktion für zeitversetztes Anschauen

Wir haben die DVR-Funktionalität implementiert, um Benutzern, die eine Live-Übertragung verpasst haben, das Zurückspulen und Nachholen zu ermöglichen. Alle Mikrosegmente werden in einem separaten Cache im Speicher des Servers gespeichert. Anschließend werden sie zusammengeführt und als vollständige Videofragmente auf der Festplatte zwischengespeichert. Diese vollständigen Segmente werden dann bei der Wiedergabe von Aufzeichnungen bereitgestellt. DVR-Segmente werden nach Ablauf einer bestimmten Zeitspanne automatisch gelöscht.

Effizientes Caching mit Chunked-Proxy auf CDN-Knoten

Wenn es um Protokolle geht, die Chunked-Transfer-Encoding verwenden, muss unbedingt beachtet werden, dass nicht alle CDNs das Caching von Dateien unterstützen, bevor sie vollständig vom Herkunftsserver heruntergeladen werden. Während Nginx als Proxyserver in der Lage ist, Quellen mit Chunked-Transfer zu verarbeiten und ihre Antworten Stück für Stück weiterzuleiten, werden nachfolgende Anfragen umgangen und direkt an die Quelle gesendet, bis die gesamte Antwort abgeschlossen ist. Der Cache wird nur genutzt, wenn die vollständige Antwort verfügbar ist. Dieser Ansatz erweist sich jedoch für die effiziente Skalierung von Video-Streaming mit niedriger Latenzzeit als unwirksam, insbesondere dann, wenn vermutlich eine beträchtliche Anzahl von Zuschauern gleichzeitig auf das letzte Segment zugreifen wird.

Um dieser Herausforderung zu begegnen, haben wir auf jedem CDN-Knoten einen separaten Caching-Dienst für Chunked-Proxy-Anfragen implementiert. Sein Hauptmerkmal liegt in der Fähigkeit, HTTP-Teilantworten zwischenspeichern zu können. Das bedeutet, dass während der erste Client, der die Anfrage an die Quelle initiiert, seine Antwort erhält, eine beliebige Anzahl von Clients, die dieselbe Antwort erwarten, von unserem Server mit minimaler Gesamtverzögerung bedient wird. Die bereits erhaltenen Teile werden sofort und der Rest dann bereitgestellt, sobald er von der Quelle eintrifft. Dieser Caching-Dienst speichert die weitergeleiteten Anfragen im Speicher des Servers, wodurch wir die Latenzzeit im Vergleich zur Speicherung von Fragmenten auf der Festplatte reduzieren können.

Dabei werden auch die Limits für die Speichernutzung berücksichtigt. Wenn die Gesamtgröße des Caches das Limit erreicht, werden Elemente basierend auf der Reihenfolge entfernt, in der am längsten nicht auf diese zugegriffen wurde. Darüber hinaus haben wir eine spezielle API entwickelt, die es CDN-Edge-Knoten ermöglicht, den Standort des Inhalts im Voraus proaktiv zu bestimmen.

Fazit

Die Entwicklung von JIT Packager hat es uns ermöglicht, unsere Ziele im Bereich Streaming mit niedrigen Latenzzeiten zu erreichen. Wir können über mehrere erweiterte Protokolle gleichzeitig streamen, ohne auf Drittanbieter angewiesen zu sein, was die Benutzererfahrung erheblich verbessert. Wir können umgehend auf Vorfälle reagieren und die Lösung effizienter an die Kundenbedürfnisse anpassen.

Das ist aber noch nicht alles. Zu unseren Plänen gehört eine weitere Reduzierung der Latenzzeit bei gleichzeitiger Beibehaltung von Qualität und Wiedergabestabilität. Zudem arbeiten wir daran, das System als Ganzes zu optimieren, weitere Metriken zur Überwachung und Steuerung hinzuzufügen und die Grenzen der Innovation in diesem Bereich weiter auszureizen.

Wir freuen uns über die bevorstehenden Möglichkeiten und sind auch weiterhin bestrebt, unseren Nutzern qualitativ hochwertige Streaming-Erlebnisse mit niedrigen Latenzzeiten zu bieten.

Ähnliche Artikel

Gcore und Northern Data Group arbeiten zusammen, um den globalen Einsatz von KI zu verändern

Gcore und Northern Data Group schlagen gemeinsam ein neues Kapitel der KI für Unternehmen auf. Durch die Kombination von Hochleistungsinfrastruktur und intelligenter Software wird die kommerzielle und technologische Partnerschaft die skalierbare Bereitstellung von KI-Anwendungen unabhängig vom Standort der Nutzer erheblich erleichtern. Im Mittelpunkt dieser aufregenden neuen Partnerschaft steht eine gemeinsame Vision: eine globale, sichere KI-Infrastruktur mit geringer Latenz, die einfach zu nutzen und schnell einsatzbereit ist.Das Intelligence Delivery Network im ÜberblickDie Implementierung von KI beschleunigt sich, aber die Infrastruktur bleibt ein großer Engpass. Viele Unternehmen stoßen auf Hindernisse in Bezug auf Latenz, Compliance und Skalierbarkeit, insbesondere bei der Bereitstellung von Modellen in mehreren Regionen. Der herkömmliche Cloud-Ansatz führt oft gerade dann zu Komplexität und Overhead, wenn Geschwindigkeit und Einfachheit am wichtigsten sind.An dieser Stelle kommt das Intelligence Delivery Network (IDN) ins Spiel.Das IDN ist ein global verteiltes KI-Netzwerk, das entwickelt wurde, um Inferenzen am Edge zu erleichtern. Es kombiniert die hochmoderne Infrastruktur von Northern Data mit Gcore Everywhere Inference, um skalierbare, hochleistungsfähige KI an 180 Standorten weltweit bereitzustellen.Durch die Verlagerung der KI-Workloads näher zu den Endnutzern reduziert IDN die Latenzzeiten und verbessert die Reaktionsfähigkeit – ohne Kompromisse bei Sicherheit oder Compliance. Die georeferenzierte, geobalancierte Architektur gewährleistet Ausfallsicherheit und Datenlokalisierung bei gleichzeitiger Minimierung der Bereitstellungskomplexität.Ein vollständiges Toolkit zur Umsetzung der KIDas IDN ist ein vollständiges KI-Implementierungs-Toolkit, das auf der Cloud-nativen Plattform von Gcore basiert. Die Lösung bietet einen vertikal integrierten Stack, der auf Geschwindigkeit, Flexibilität und Skalierbarkeit ausgelegt ist. Die wichtigsten Komponenten sindManaged Kubernetes für die OrchestrierungEine Container-basierte Deployment Engine (Docker)Eine umfangreiche Modellbibliothek, die Open-Source- und benutzerdefinierte Modelle unterstütztEverywhere Inferenz, die Software von Gcore für die Verteilung von Inferenzen über globale Edge-Points of PresenceDieses Toolset ermöglicht die schnelle und einfache Bereitstellung von KI-Workloads – mit integrierter Skalierung, Ressourcenverwaltung und Beobachtbarkeit. Die Partnerschaft ermöglicht auch den Zugang zu einem der weltweit größten flüssig gekühlten GPU-Cluster, der KI-Teams die Leistung bietet, die sie für anspruchsvolle Workloads benötigen.Unabhängig davon, ob Sie ein neues KI-basiertes Produkt entwickeln oder ein bestehendes Modell skalieren möchten, bietet IDN einen klaren Weg von der Entwicklung bis zur Produktion.Auf Skalierbarkeit und Performance ausgelegtDie gemeinsame Lösung orientiert sich an den Bedürfnissen von Unternehmenskunden. Sie unterstützt mandantenfähige Bereitstellungen, lässt sich in vorhandene Cloud-native Tools integrieren und bietet hohe Leistung, ohne die Kontrolle zu verlieren. Die Kunden erhalten die Flexibilität, die sie benötigen, um die Lösung überall und jederzeit zu implementieren und gleichzeitig Sicherheit und Compliance auf Unternehmensebene zu gewährleisten.Andre Reitenbach, CEO von Gcore, kommentiert: „Diese Zusammenarbeit unterstützt die Mission von Gcore, die Welt überall und jederzeit mit KI zu verbinden. Gemeinsam ermöglichen wir die nächste Generation von KI-Anwendungen mit niedriger Latenz und hoher Skalierbarkeit“.„Wir kombinieren die HPC- und Rechenzentrumsinfrastruktur-Expertise von Northern Data mit der Spezialisierung von Gcore auf Software-Innovation und -Entwicklung“, sagt Aroosh Thillainathan, Gründer und CEO der Northern Data Group. „Damit können wir unsere Vision beschleunigen, eine softwarebasierte KI-Infrastruktur über ein weltweit verteiltes Computernetzwerk bereitzustellen. Wir befinden uns in einer entscheidenden Phase, in der sich der Einsatz von KI-Lösungen weiterentwickelt, und wir glauben, dass diese Partnerschaft ein wichtiger Bestandteil davon sein wird“.Intelligentere und schnellere KI-Implementierung mit Gcore und Northern Data GroupKI ist die neue Grundlage des digitalen Geschäfts. Die globale Bereitstellung sollte kein Team von Infrastrukturingenieuren erfordern. Mit Gcore und der Northern Data Group erhalten Unternehmensteams die Tools und die Unterstützung, die sie benötigen, um KI in großem Umfang und mit hoher Geschwindigkeit zu betreiben.Ganz gleich, was Sie und Ihre Teams mit KI erreichen wollen, das neue Intelligence Delivery Network hilft Ihnen, intelligenter und schneller zu arbeiten.Lesen Sie die vollständige Pressemitteilung

Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

KI-Entwicklungen erobern die Welt im Sturm. Unternehmen sollten sich aber bewusst sein, dass neue Chancen auch neue Herausforderungen mit sich bringen. Dem Impuls, die Technologie zu nutzen, müssen verantwortungsvolle Regel für deren Einsatz vorausgehen. Nur so ist sichergestellt, dass durch KI weder Unternehmen noch ihre Kunden Risiken ausgesetzt sind. Um diesem Anspruch gerecht zu werden, entwickeln Regierungen weltweit Gesetze zur Regulierung von KI und Datennutzung.Sich in einem immer komplexeren Netz von internationalen Vorschriften zurechtzufinden, kann überfordernd sein. Deshalb werden wir in diesem Artikel die Gesetzgebung einiger führender KI-Hubs auf allen Kontinenten aufschlüsseln und Ihnen genau die Informationen zur Verfügung stellen, die Ihr Unternehmen benötigt, um KI optimal zu nutzen – sicher, legal und ethisch vertretbar.Falls Sie unsere früheren Blogs verpasst haben, in denen wir die KI-Vorschriften nach Regionen aufgeschlüsselt haben, lesen Sie sie hier: Nordamerika, Lateinamerika, Europa, APAC, Naher Osten.Um die Zusammenfassung zu lesen, gehen Sie bitte zur Übersichtstabelle.Globale Trends der KI-RegulierungAuch wenn die Vorschriften je nach Standort variieren, haben sich 2024 weltweit mehrere übergreifende Trends herauskristallisiert. Dazu zählen eine Fokussierung auf Datenlokalisierung, risikoabhängige Regulierung und eine Priorisierung des Datenschutzes. Sie sind zu allgemein anerkannten Leitlinien geworden. Das gemeinsame Ziel aller Länder ist es, Innovationen zu fördern und gleichzeitig die Verbraucher zu schützen – auch wenn die einzelnen Regionen diese Ziele auf unterschiedliche Weise zu erreichen versuchen.Viele Länder folgen dem Beispiel der EU, deren KI-Gesetz ein mehrstufiges Regulierungsmodell je nach potenziellem Risikograd vorsieht. Bei diesem System gelten für jede Risikostufe unterschiedliche Anforderungen: Für Hochrisikoanwendungen, die entweder die öffentliche Sicherheit oder Bürgerrechte betreffen, gilt eine andere Sicherheitsstufe als für allgemeine KI-Anwendungen, bei denen die Risiken weniger hoch eingestuft werden.Europa: strukturiert und stringentEuropa hat einige der strengsten KI-Vorschriften der Welt mit Schwerpunkt Datenschutz gemäß der DSGVO sowie dem neuen risikoabhängigen KI-Gesetz. Dieser Ansatz beruht vor allem darauf, dass die EU den Schwerpunkt auf Verbraucherrechte legt und dafür sorgt, dass die Sicherheit der Nutzerdaten durch die digitale Technologie gewährleistet wird. Das vorgeschlagene KI-Gesetz der EU, über das noch verhandelt wird und das bis 2025 verabschiedet sein soll, stuft KI-Anwendungen nach den Risikoklassen „inakzeptables Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „niedriges Risiko“ ein. Risikoreiche KI-Tools, wie sie bei biometrischer Identifizierung oder Finanzentscheidungen eingesetzt werden, müssen strenge Standards in Bezug auf Datenverwaltung, Transparenz und menschliche Aufsicht erfüllen.Einige EU-Länder haben zusätzliche Standards zum EU-Rahmen eingeführt, insbesondere für mehr Datenschutz und Kontrolle. Der deutsche DSK-Leitfaden zum Beispiel konzentriert sich auf die Rechenschaftspflicht großer Sprachmodelle (LLM) und fordert mehr Transparenz, menschliche Kontrolle und die Zustimmung zur Datennutzung.Unternehmen, die KI in Europa einsetzen wollen, müssen sowohl die einheitlichen Anforderungen des KI-Gesetzes als auch die mitgliedsspezifischen Vorschriften berücksichtigen, die eine differenzierte und strenge Compliance-Landschaft schaffen.Nordamerika: neue VorschriftenDie Vorschriften für künstliche Intelligenz in Nordamerika sind weit weniger einheitlich als die in Europa. Die USA und Kanada sind noch dabei, ihre jeweiligen KI-Rahmenregelungen auszuarbeiten, wobei der derzeitige Ansatz der USA weniger streng und zugleich innovationsfreundlicher ist, während Kanada eine zentralisierte Steuerung bevorzugt.Die Vereinigten Staaten arbeiten mit einem Hybridmodell aus bundesstaatlichen Richtlinien, wie dem Blueprint for an AI Bill of Rights, sowie einzelstaatlichen Gesetzen, wie dem California Consumer Privacy Act (CCPA) und dem Virginia Consumer Data Protection Act (VCDPA), die dazu dienen, einige der strengeren Datenschutzvorschriften durchzusetzen. Die zweistufige Vorgehensweise ähnelt dem in der EU, wo es sowohl Vorschriften auf EU-Ebene als auch auf Länderebene gibt.Der grundsätzlich liberale Ansatz der USA entspricht dem dortigen Verständnis der freien Marktwirtschaft und räumt Innovation und Wachstum den Vorrang vor strengen Sicherheitsmaßnahmen ein. Doch nicht alle Staaten machen sich einen solch freizügigen Umgang zu eigen. Die Divergenz zwischen strengen einzelstaatlichen Gesetzen und eher lockeren Bundesrichtlinien kann zu einer fragmentierten Regulierungslandschaft führen, die für Unternehmen nur sehr schwer zu durchschauen ist.Asien-Pazifik (APAC): divergierende Strategien mit Fokus auf InnovationDie APAC-Region entwickelt sich schnell zu einem globalen Spitzenreiter in Sachen KI-Innovation, deren wichtigsten Märkte das technologische Wachstum in verschiedenen Sektoren maßgeblich vorantreiben. Die Regierungen in der Region haben darauf mit der Schaffung von Rahmenbedingungen reagiert, die den verantwortungsvollen Einsatz von KI und die Datensouveränität in den Vordergrund stellen. Indiens künftiges Gesetz zum Schutz digitaler personenbezogener Daten (Digital Personal Data Protection Bill, DPDPB), Singapurs Modellrahmen für KI-Governance (Model AI Governance Framework) und Südkoreas Gesetz zur Förderung der KI-Industrie (AI Industry Promotion Act) werfen ein Schlaglicht auf die regulatorische Vielfalt in der Region und unterstreichen gleichzeitig die gemeinsame Forderung nach Transparenz und Datenlokalisierung.Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in der APAC-Region. Länder wie China setzen beispielsweise einige der weltweit strengsten Gesetze zur Datenlokalisierung durch, während Japan „Soft-Law“-Prinzipien eingeführt hat und bald verbindliche Vorschriften erwartet. Diese unterschiedlichen Ansätze spiegeln die spezifische Balance zwischen Innovation und Verantwortung in jedem Land wider.Lateinamerika: neue Normen für den DatenschutzDie lateinamerikanische KI-Regulierungslandschaft befindet sich noch in der Entstehungsphase, wobei ein gemeinsamer Schwerpunkt auf dem Datenschutz liegt. Brasilien, das in der Region führend bei der digitalen Regulierung ist, erließ das Allgemeine Datenschutzgesetz (General Data Protection Law, LGPD) ein, das in seinem datenschutzfreundlichen Ansatz – ähnlich wie das argentinische Datenschutzgesetz– eng an die DSGVO angelehnt ist. Mexiko prüft ebenfalls eine KI-Gesetzgebung und hat bereits unverbindliche Leitlinien herausgegeben, in denen ethische Grundsätze und Menschenrechte betont werden.Während sich die regionale KI-Politik noch in der Entwicklung befindet, tendieren andere lateinamerikanische Länder wie Chile, Kolumbien, Peru und Uruguay zu Rahmenwerken, die Transparenz, die Zustimmung der Nutzer und menschliche Kontrolle in den Vordergrund stellen. Mit der zunehmenden Verbreitung von KI werden die lateinamerikanischen Länder wahrscheinlich dem Beispiel der EU folgen und risikobasierte Vorschriften einführen, die sich mit Hochrisikoanwendungen, Datenverarbeitungsstandards und Datenschutzrechten befassen.Naher Osten: Zentren für KI-InnovationenDie Länder des Nahen Ostens investieren erheblich in KI, um das Wirtschaftswachstum anzukurbeln, weshalb auch die Politik besonders innovationsfreundlich ist. In vielen Fällen liegt der Schwerpunkt der Politik sowohl auf der Entwicklung technologischer Spitzenleistungen und der freiwilligen Einhaltung durch die Unternehmen als auch auf strengen gesetzlichen Anforderungen. Dies macht die Region zudem besonders komplex für Unternehmen, die sich bemühen, sich den Bedingungen jedes Landes anzupassen.Die VAE wollen sich durch Initiativen wie die UAE National AI Strategy 2031 als weltweit führend im KI-Sektor positionieren. Die Strategie umfasst ethische Leitlinien, legt aber auch Wert auf eine innovationsfreundliche Politik, die Investitionen anzieht. Saudi-Arabien geht einen ähnlichen Weg. Vorschriften wie die Standards für Datenmanagement und den Schutz personenbezogener Daten (Data Management and Personal Data Protection Standards)konzentrieren sich auf Transparenz und Datenlokalisierung, um die Daten der Bürger zu schützen und gleichzeitig die rasche Entwicklung von KI in allen Bereichen zu fördern. Israels KI-Regulierung stützt sich auf flexible, in den Datenschutzgesetzen verankerte Richtlinien, einschließlich des Datenschutzgesetzes (Privacy Protection Law, PPL), das 2024 geändert wurde, um es an die DSGVO der EU anzupassen.Übersichtstabelle mit ZusammenfassungRegionLand/RegionVorschrift/RichtlinieSchwerpunktAuswirkungen auf die WirtschaftEuropaEUKI-Gesetz (geplant)Risikoabhängige KI-Klassifizierung; hohe Standards bei Datenverwaltung, Transparenz und menschlicher AufsichtHöhere Aufwände bei Compliance, mögliche Verzögerungen bei der Einführung von KI aufgrund strikter Auflagen EUDatenschutzgrundverordnung (DSGVO)Datenschutz, Zustimmung zur Datenverarbeitung, Beschränkungen für grenzüberschreitende DatenübertragungenErhöhte Betriebskosten für die Einhaltung der Vorschriften, Herausforderungen für die globale Datenübertragung und -speicherungNordamerikaUSAEntwurf für ein KI-GrundgesetzKI-Sicherheit, Datenschutz, Fairness; unverbindliche staatliche LeitlinienFlexibilität ermöglicht Innovation, aber Gesetze auf Länderebene erhöhen das Risiko der Fragmentierung von Vorschriften USA (Bundesstaaten)California Consumer Privacy Act (CCPA) & Virginia Consumer Data Protection Act (VCDPA)Datenschutz, Verbraucherdatenschutz, strenge Einhaltung der Vorschriften zur DatenverarbeitungErhöhte gesetzliche Anforderungen für Unternehmen, die in strengen Bundesstaaten tätig sind KanadaArtificial Intelligence and Data Act (AIDA) (geplant)Nationale KI-Ethik und Datenschutz; Transparenz, Verantwortlichkeit für die Nutzung personenbezogener DatenErfordert Investitionen in KI-Auditsysteme und Dokumentation KanadaPersonal Information Protection and Electronic Documents Act (PIPEDA)Datentransparenz, Zustimmung der Nutzer, Verantwortlichkeit bei der Verwendung personenbezogener DatenBietet Organisationen die Möglichkeit, durch Transparenz das Vertrauen ihrer Kunden zu gewinnenAPAC (Asien-Pazifik)IndienDigital Personal Data Protection Bill (DPDPB)Datenschutz, Einwilligung der Nutzer, Datensouveränität, LokalisierungBetriebskosten für Systeme zur Datenlokalisierung, limitiert grenzüberschreitenden Datenfluss SingapurModell eines Rahmenwerks für KI-GovernanceVerantwortungsvolle KI-Nutzung, Data Governance, TransparenzUnternehmen, die sich frühzeitig an den Anforderungen orientieren, sichern sich einen Wettbewerbsvorteil SüdkoreaAI Industry Promotion ActUnterstützung der KI-Industrie, Transparenz, DatenlokalisierungFördert KI-Innovationen, bringt aber Lokalisierungskosten für internationale Unternehmen mit sich ChinaGesetze zur DatenlokalisierungStrenge Datenlokalisierung, Hoheit über die DatenverarbeitungDie Datenlokalisierung ist mit Kosten für die Einhaltung der Vorschriften verbunden und kann für ausländische Unternehmen, die in China tätig sind, Hindernisse darstellen JapanGesetz zum Schutz der Privatsphäre (Soft-Law-Grundsätze)Schutz der Privatsphäre, künftige verbindliche Vorschriften erwartetKurzfristige geschäftliche Flexibilität mit dem Potenzial für zukünftige Kosten für Compliance, wenn verbindliche Vorschriften eingeführt werdenLateinamerikaBrasilienAllgemeines Datenschutzgesetz (General Data Protection Law, LGPD)Datenschutz, Einwilligung in die Datenverarbeitung, Transparenz bei der DatennutzungDie Angleichung an die DSGVO kann europäischen Unternehmen den Einstieg erleichtern, birgt aber auch das Potenzial, die Kosten für die Einhaltung der Vorschriften zu erhöhen MexikoEthische Grundsätze der KI (nicht bindend)Ethische Grundsätze, Menschenrechte, Leitlinien für den verantwortungsvollen Umgang mit KIMinimale Compliance-Anforderungen, ein „Soft-Law“-Ansatz ermöglicht Unternehmen Flexibilität ArgentinienGesetz zum Schutz personenbezogener DatenDSGVO-konform; Einwilligung, Datenschutz, Nutzerrechte  ChileNational Intelligence PolicyMenschenrechte, Transparenz, Vermeidung von Bias beim Einsatz von KIGeringe Compliance-Kosten, aber Fokus auf ethische KI-Praktiken erforderlich KolumbienNational Policy for Digital TransformationEthische KI-Nutzung, verantwortungsvolle Entwicklung, DatensouveränitätFokus auf ethische Praktiken könnte Wettbewerbsvorteile bei öffentlichen Ausschreibungen schaffen PeruNationale Strategie für KIKI-Infrastruktur, Ausbildung von Fachkräften, ethische DatenpraktikenSchafft Möglichkeiten für Unternehmen, die sich mit KI-Schulungen und -Infrastrukturen befassen, erfordert jedoch ethische Orientierung UruguayAktualisierte KI-Strategie (in Arbeit)Governance in der öffentlichen Verwaltung, KI-InnovationErleichterung des Marktzugangs für innovationsorientierte Unternehmen trotz anspruchsvoller Anpassung an Governance-RahmenbedingungenNaher OstenVAELeitfaden für KI-Ethik und für die Einführung von KIEthische Standards, Datenschutz, verantwortungsvoller Einsatz von KIUnterstützt ethische KI-Entwicklung mit minimaler regulatorischer Belastung VAEDubai International Financial Center (DIFC) DatenschutzbestimmungenDatennutzung in KI-Anwendungen, Datenschutzrechte, DatenlokalisierungKann die Datenübertragung erschweren, positioniert Dubai aber als führendes KI-Land VAEKI-ChartaGovernance, Transparenz und Datenschutz in der KI-PraxisFördert die internationale Zusammenarbeit und betont den verantwortungsvollen Einsatz von KI Saudi-ArabienStandards für Datenmanagement und Schutz personenbezogener DatenTransparenz, Datenlokalisierung, minimale Einschränkungen für KI-InnovationenUnterstützt Innovation, erhöht aber Kosten für lokalisierte Datenverarbeitung Saudi-ArabienEthische Grundsätze der KI und Richtlinien für generative KIEthische Standards, verantwortungsvolle KI-Nutzung, Leitlinien für die IndustrieNiedrige Compliance-Kosten fördern Innovation IsraelPrivacy Protection Law (PPL) und KI-PolitikDatenschutz, DSGVO-konforme Änderungen (KI-Politik), ethische und flexible KI-RegulierungFlexibilität für ethisch handelnde Unternehmen, Angleichung an DSGVO kann europäische Zusammenarbeit erleichternCompliance-Management angesichts sich überschneidender VorschriftenCompliance-Management stellt schon immer eine Herausforderung dar. Angesichts der vielfältigen und oft widersprüchlichen Anforderungen, die weltweit gelten, ist die Einhaltung von Vorschriften heute jedoch schwieriger denn je. International tätige Unternehmen müssen eine Balance zwischen der Einhaltung strenger Vorschriften wie der EU-Datenschutzgrundverordnung (DSGVO) oder den chinesischen Gesetzen zur Datenlokalisierung und der Einhaltung flexiblerer oder innovationsorientierter Rahmenwerke in Ländern wie Singapur und Saudi-Arabien finden. Unternehmen sind gefordert, ihre Abläufe an die unterschiedlichen Standards für Datenschutz, Transparenz und Governance anzupassen, was zu höheren Kosten und betrieblicher Ineffizienz führen kann. Diese Fragmentierung der Vorschriften zwingt Unternehmen oft zu erheblichen Investitionen in juristische Expertise, in Compliance-Infrastruktur und in maßgeschneiderte operative Strategien, um widersprüchliche Anforderungen zu erfüllen.Vereinfachung globaler KI-Compliance mit GcoreFür international tätige Unternehmen stellt die Einhaltung unterschiedlicher KI-Vorschriften eine große Hürde dar. State-of-the-Art-Technologien wie Sovereign Cloud und Edge Computing eröffnen jedoch neue Möglichkeiten, diese Standards zu erfüllen. Sovereign Clouds ermöglichen die Datenspeicherung und -verarbeitung innerhalb bestimmter Regionen, was es den Unternehmen erleichtert, die Gesetze zur Datenlokalisierung einzuhalten und gleichzeitig von der Skalierbarkeit der Cloud zu profitieren. Anbieter wie Gcore bieten Lösungen mit einem weltweiten Netz von Datenzentren an, die globalen Unternehmen einen nahtlosen Betrieb über Grenzen hinweg ermöglichen.Gcore ist führend im Edge Computing, das als Ergänzung zur Lokalisierung die Datenverarbeitung näher am Entstehungsort der Daten ermöglicht. Dies verringert den Bedarf an grenzüberschreitenden Datenübertragungen und verbessert sowohl Latenzzeit als auch Netzwerkeffizienz. Dies ist besonders vorteilhaft für KI-Anwendungen in Bereichen wie autonomes Fahren und Telemedizin, in denen sowohl Geschwindigkeit als auch Konformität entscheidend sind. Darüber hinaus vereinfacht Gcore die Einhaltung von Vorschriften wie der EU-DSGVO und dem KI-Gesetz, indem es dazu beiträgt, dass sensible Daten sicher und innerhalb der regionalen Grenzen bleiben.Entdecken Sie Gcore Inference at the Edge für die lückenlose Einhaltung von gesetzlichen Vorschriften

Edge Cloud-Updates für Dezember 2024

Wir freuen uns, Ihnen die neuesten Erweiterungen unserer Edge Cloud-Plattform vorstellen zu können, mit denen Sie mehr Flexibilität, Zuverlässigkeit und Kontrolle über Ihre Infrastruktur erhalten. Die Updates umfassen die Unterstützung mehrerer öffentlicher IPs für Bare Metal und verstärkte Maßnahmen zum Schutz vor Missbrauch. Für Neukunden haben wir ein exklusives Angebot für die Aktivierung von Bare Metal-Servern. Alle Details hierzu finden Sie in diesem Blog.Unterstützung mehrerer öffentlicher IPs für Bare MetalWir führen die Unterstützung mehrerer öffentliche IPs für Bare Metal-Server in dedizierten öffentlichen Subnetzen ein und erhöhen damit ihre Flexibilität und Zuverlässigkeit. Mit diesem Update können Sie zur Sicherung einer nahtlosen Servicekontinuität mehrere öffentliche IP-Adressen konfigurieren und so die Stabilität Ihrer Infrastruktur erhöhen. Mit mehreren IPs bleiben Ihre Dienste ohne Unterbrechung online, selbst wenn eine IP-Adresse ausfallen sollte.Diese Funktionalität bietet eine hohe Flexibilität und ermöglicht es Ihnen, Ihren Betrieb mühelos zu skalieren. Besonders nützlich ist dies bei der Bewältigung unterschiedlicher Workloads, der Steuerung des Datenverkehrs und bei komplexen Hosting-Umgebungen. Es ist zudem eine ideale Lösung für Hypervisor-Umgebungen, in denen die Trennung des Datenverkehrs über verschiedene IPs unerlässlich ist.Das müssen Sie wissen, bevor Sie loslegen:Diese Funktion funktioniert ausschließlich mit einem dedizierten öffentlichen Subnetz.Um diese Funktion zu aktivieren, stellen Sie bitte eine Anfrage an unser Support-Team.Die Anzahl der unterstützten öffentlichen IPs ist durch die Größe des dedizierten Subnetzes begrenzt, das Ihrem Bare Metal-Server zugewiesen ist.Bitte wenden Sie sich an unser Support-Team, wenn Sie künftig mehrere öffentliche IPs nutzen möchten.Verschärfte Maßnahmen zur Vermeidung von MissbrauchWir haben neue Maßnahmen zum Schutz vor Missbrauch ergriffen, um problematische Datenverkehrsmuster zu erkennen und einzudämmen, die Zuverlässigkeit der Services zu verbessern und Ihre Infrastruktur vor gefährlichen Aktivitäten zu sichern. Diese Updates tragen dazu bei, Ihr Netzwerk zu schützen und eine konsistente Leistungsfähigkeit Ihrer Applikationen zu erzielen.Weitere Informationen finden Sie in unserer Produktdokumentation.Testen Sie Bare Metal diesen Monat mit 35 % RabattGcore Bare Metal-Server sind die perfekte Wahl, um herausragende Performance zu erzielen und auch die anspruchsvollsten Workloads zu bewältigen. Durch ihre globale Verfügbarkeit bieten sie eine zuverlässige, leistungsstarke und skalierbare Lösung, wo immer Sie sie brauchen. Für begrenzte Zeit erhalten Neukunden zwei Monate lang 35 % Rabatt auf High-Frequency Bare Metal-Server*.Falls Sie von Ihrem Anbieter während Spitzenzeiten enttäuscht wurden oder Ihre Leistungsfähigkeit für 2025 ausbauen möchten, ist das die Gelegenheit für Sie. Nutzen Sie das Angebot bis zum 7. Januar, um sich einen der Rabatte für die ersten 500 Kunden zu sichern.Nutzen Sie das volle Potenzial der Edge CloudDiese Updates unterstreichen unser Engagement, Ihr Unternehmen fortlaufend mit Tools und Funktionen zu unterstützen, die Ihre Anforderungen erfüllen. Ob es um die Erhöhung von Flexibilität, einfacheres Server-Management oder bessere Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Ob es um die Erhöhung von Flexibilität, einfacheres Server-Management oder mehr Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Entdecken Sie Bare Metal von Gcore* Hinweis: Dieses Angebot gilt bis zum 7. Januar 2025. Der Rabatt gilt für zwei Monate ab Beginn des Abonnements und exklusiv für Neukunden, die High-Frequency Bare Metal-Server aktivieren. Der Rabatt erlischt automatisch nach zwei Monaten. Das Angebot ist auf die ersten 500 Aktivierungen beschränkt.

Die neuen FastEdge-Updates für November

Für FastEdge, unsere serverlose Edge-Computing-Lösung, veröffentlichen wir diesen Monat Verbesserungen, die Workflows vereinfachen, die Sicherheit erhöhen und das Anwendungsmanagement optimieren. Kunden von FastEdge haben jetzt Zugang zu Secret Storage Support, CLI und Konfigurationsvorlagen. Außerdem haben wir die Steuerung des Gcore-Kundenportals verbessert. Das sind die Neuerungen:Secret Storage SupportDie Verwaltung sensibler Informationen ist eine zentrale Herausforderung für moderne Anwendungen. Mit dem Secret Storage Support haben Sie jetzt Zugriff auf ein robustes System zur Verschlüsselung und Verwaltung von API-Schlüsseln, Anmeldeinformationen, Token und anderen sensiblen Daten in den Umgebungsvariablen Ihrer Anwendung.Das bedeutet für Sie Folgendes:Verbesserte Sicherheit: Schützen Sie vertrauliche Informationen mit den neuesten Verschlüsselungstechniken und verringern Sie so das Risiko von absichtlichen oder versehentlichen Datenlecks.Schlankere Verwaltung: Vereinfachen Sie Ihre Anwendungskonfiguration mit einem einzigen, sicheren Workflow für Umgebungsvariablen.Einhaltung gesetzlicher Vorschriften: Erfüllen Sie die strengen Datenschutz- und Datensicherheitsstandards und schützen Sie Ihre Anwendungen damit vor Verstößen und aufsichtsrechtlichen Konsequenzen.CLI (Command Line Interface)Die FastEdge-CLI ist ein leistungsstarkes Tool, das Entwicklern und DevOps-Teams die direkte Interaktion mit FastEdge über eine Befehlszeilenschnittstelle ermöglicht. Diese Funktion vereinfacht Arbeitsabläufe, indem sie eine Reihe von Befehlen für das Deployment Management, die Überwachung der Performance sowie die Integration in bestehenden CI/CD-Pipelines bietet. Darüber hinaus unterstützt sie lokale Tests, mit denen Teams Deployment-Umgebungen replizieren und Änderungen in Echtzeit erproben können, bevor sie live gehen.Das bedeutet für Sie Folgendes:Effiziente Automatisierung: Verringern Sie menschliche Fehler durch die Automatisierung von Aktualisierungen, Skalierung und der Verwaltung von Konfigurationen.Nahtlose Integration: Optimieren Sie Ihre CI/CD-Pipelines mit FastEdge, um schnellere Entwicklungszyklen, kürzere Markteinführungszeiten und geringeren Verwaltungsaufwand zu ermöglichen.Verbesserte Kontrolle: Verwenden Sie die CLI, um Einstellungen und Deployments zu verwalten, und geben Sie Entwicklern die nötige Flexibilität, Prozesse an ihre individuellen Anforderungen anzupassen.Erhöhte Flexibilität: Testen und debuggen Sie Ihre Anwendungen lokal, um Änderungen vor der Bereitstellung zu validieren, Risiken zu reduzieren und bessere Ergebnisse zu erzielen.Optimierte Entwicklung: Vereinfachen Sie Routineaufgaben, damit sich Ihre Teams ganz auf Innovationen und auf die Verbesserung der Performance Ihrer Anwendungen konzentrieren können.Wenn Sie den Umgang mit FastEdge CLI kennenlernen und die vollständige Dokumentation lesen möchten, besuchen Sie das FastEdge CLI GitHub-Repository.Vorlagen für eine schnelle KonfigurationVordefinierte Vorlagen optimieren die Bereitstellung von FastEdge-Services, indem sie die Konfiguration für gängige Anwendungsfälle erheblich vereinfachen. Diese Vorlagen bieten mehrere entscheidende Vorteile für Nutzer. Die vordefinierten Optionen für Caching, Sicherheit und Lastausgleich erlauben eine schnelle und fehlerfreie Einrichtung, die viel Zeit bei der Bereitstellung spart. Durch standardisierte Konfigurationen für alle Bereitstellungen sorgen die Vorlagen für Konsistenz im gesamten System, was Fehler reduziert und die Stabilität erhöht. Obwohl die Vorlagen die genannten standardisierten Vorteile bieten, sind sie flexibel und können problemlos Ihren spezifischen Anforderungen angepasst werden. Indem sie es Ihnen ermöglichen, konsistente Anpassungen in Ihrer gesamten Netzwerkinfrastruktur vorzunehmen, vereinfachen sie sowohl die Skalierungs- als auch die Wartungsprozesse.Verbesserte Verwaltung im Gcore-KundenportalDas aktualisierte Gcore-Kundenportal bietet erweiterte Tools für die Verwaltung von FastEdge-Services. So können Partner und Wiederverkäufer Kundeneinstellungen besser kontrollieren und Probleme beheben.Die zentrale Verwaltungsschnittstelle erlaubt es Ihnen, Kundeneinstellungen schnell zu ändern. Das spart Zeit und vereinfacht die Konfigurationsprozesse für Ihren Kundenstamm. Neuen Kunden können Sie benutzerdefinierte Vorlagen zur Verfügung stellen, die einen einheitlichen und effizienten Prozess möglich machen, der das Onboarding beschleunigt. Die systemeigenen Diagnosen und Auswertungen in Echtzeit helfen Ihnen, Anwendungsprobleme schneller zu beheben und Serviceausfälle zu minimieren. Außerdem können mit den Verbesserungen die Serviceleistungen für mehrere Kunden einfach verwaltet und skaliert und gleichzeitig konsistente Konfigurationen für den gesamten Kundenstamm gewährleistet werden.Bleiben Sie über künftige FastEdge-Updates informiertDiese Updates – in Kombination mit FastEdge, dem erweiterten Funktionsumfang unserer serverlosen Edge-Computing-Lösung – machen es einfacher denn je, sichere, skalierbare und leistungsstarke Anwendungen zu implementieren. Freuen Sie sich also auf weitere Verbesserungen im nächsten Monat!

Absicherung von Webanwendungen und APIs am Edge: die Leistungsfähigkeit von Edge WAAP

Da Anwendungsarchitekturen immer verteilter werden, erfordert die Sicherung von Webanwendungen und APIs einen proaktiven, anpassungsfähigen Ansatz, der über herkömmliche Web Application Firewalls (WAFs) hinausgeht. Lösungen zum Schutz von Webanwendungen und Anwendungsprogrammierschnittstellen (WAAP) verbessern die Sicherheit, indem sie die Schutzmaßnahmen näher an die Endbenutzer und potenzielle Bedrohungen heranbringen. Diese strategische Positionierung verringert die Latenzzeit, was zu schnelleren Reaktionszeiten und einem nahtloseren Benutzererlebnis führt. Edge-basiertes WAAP senkt das Risiko von Ausfallzeiten und schützt wichtige Ressourcen, indem es Bedrohungen wie DDoS-Angriffe, Bot-Traffic und API-Missbrauch abfängt, bevor sie die Kerninfrastruktur erreichen.Edge-basiertes WAAP bietet dynamische Skalierbarkeit und erhöhte Geschwindigkeit und bewältigt effizient große Datenmengen und unerwartete Nachfragespitzen. Verteilt auf zahlreiche globale Präsenzpunkte bietet sie robuste, flexible Sicherheit, die sich in Echtzeit an Bedrohungen und Angriffe anpasst und damit perfekt für den Schutz von Anwendungen in komplexen Multi-Cloud-Umgebungen geeignet ist.Warum WAAP am Edge?Bei zentralisierten WAAP-Lösungen steht in der Regel eine einzige Sicherheitsanwendung oder Software-Instanz zwischen dem Internet und der Anwendung. Die zentralisierte WAAP ist zwar in bestimmten Szenarien wirksam, hat aber ihre Grenzen, insbesondere wenn es um globale Anwendungen und verteilte Infrastrukturen geht. Zu den Nachteilen gehören:Latenz: Datenverkehr, der über einen zentralen Punkt geleitet wird, kann zu Latenz führen, was die Anwendungsleistung beeinträchtigt.Ein einziger Ausfallpunkt: Die Kompromittierung der zentralen Sicherheitsanwendung kann die gesamte Anwendung stark beeinträchtigen.Skalierbarkeit: Die Skalierung von zentralisierten Lösungen zur Bewältigung des zunehmenden Datenverkehrs und der sich entwickelnden Bedrohungslandschaft kann eine Herausforderung darstellen.Edge-WAAP hingegen verteilt Sicherheitsfunktionen auf mehrere Punkte im Netzwerk, häufig näher am Edge. Dieser Ansatz bietet mehrere Vorteile: geringere Latenzzeiten, bessere Leistung, höhere Sicherheit und größere Flexibilität. Betrachten wir sie der Reihe nach.Geringere LatenzzeitDurch die Nutzung der Leistungsfähigkeit von CDN, um die Sicherheit in die Nähe des Endnutzers zu bringen, reduziert Edge WAAP die Latenzzeit erheblich, da der Datenverkehr näher an der Quelle verarbeitet wird. Die Latenzzeit steigt mit zunehmender physischer Entfernung zwischen Benutzern und Rechenzentren, so dass die Verringerung dieser Entfernung der Schlüssel zur Verbesserung der Reaktionszeiten ist. Dank des umfangreichen PoP-Netzwerks von Gcore auf der ganzen Welt werden Daten stets in der Nähe der Endnutzer verarbeitet. Dies reduziert die Datenübertragungsdistanz und ermöglicht eine schnellere Reaktion bei der Abwehr von Angriffen. Bei herkömmlichen Systemen bedeutet die Zentralisierung der Sicherheitsfunktionen, dass alle Anfragen (einschließlich potenziell böswilliger Anfragen) über eine einzige Stelle laufen, was zu Engpässen und einer Verlangsamung des Dienstes führen kann. Edge WAAP vermeidet dieses Problem, indem es die Sicherheitsfunktionen näher am Ursprung der Anfrage bearbeitet.Dies führt zu einer reibungsloseren und schnelleren Interaktion mit den Kunden, selbst bei Spitzenbelastungen. So könnte beispielsweise eine globale E-Commerce-Plattform Edge WAAP nutzen, um ein nahtloses Einkaufserlebnis in verschiedenen Regionen mit minimalen Verzögerungen zu ermöglichen. Durch niedrige Latenzzeiten verbessert Edge WAAP die Gesamtleistung der Anwendung und bietet die nötige Skalierbarkeit, um schwankende Verkehrsanforderungen zu bewältigen. Diese Struktur ermöglicht es Unternehmen, reaktionsschnelle und zuverlässige Dienste aufrechtzuerhalten, während sie wachsen, und unterstützt sowohl aktuelle als auch zukünftige Skalierungsanforderungen.Verbesserte SicherheitDie Kombination aus geringer Latenzzeit und globaler Netzverteilung macht Edge WAAP sicherer als Standard-WAAP-Lösungen. Indem der Datenverkehr näher an seiner Quelle verarbeitet wird, kann Edge-WAAP Bedrohungen in Echtzeit erkennen und abwehren, wodurch die Verzögerung zwischen der Identifikation böswilliger Aktivitäten und der Reaktion minimiert wird. Dieser Ansatz mit niedriger Latenz verringert das Zeitfenster für Angreifer und garantiert, dass Bedrohungen wie DDoS-Angriffe, Bot-Aktivitäten und API-Missbrauch neutralisiert werden, bevor sie die Kerninfrastruktur erreichen.Darüber hinaus nutzt Edge WAAP ein global verteiltes Netzwerk, um verdächtige Datenverkehrsmuster über Regionen hinweg zu überwachen, was die Transparenz erhöht und die Anwendung von Sicherheitsmaßnahmen auf der Grundlage des geografischen Ursprungs von Bedrohungen ermöglicht. Dieser Ansatz kommt vor allem Unternehmen zugute, die mit sensiblen Daten arbeiten oder Compliance-Anforderungen in mehreren Regionen erfüllen müssen. Durch die Kombination aus geringer Latenzzeit und umfassender, globaler Bedrohungsüberwachung bietet Edge WAAP proaktiven, anpassungsfähigen Schutz, der schnell auf neue Bedrohungen reagieren kann.Größere FlexibilitätEdge WAAP ermöglicht Unternehmen die Anpassung an sich entwickelnde Netzwerktopologien und Anwendungsarchitekturen. Durch die Bereitstellung von WAAP am Edge können Sicherheitsfunktionen verteilt und an ein sich änderndes Netzwerkumfeld angepasst werden, sei es aufgrund von Wachstum, veränderten Datenverkehrsströmen oder neuen Anforderungen an die Bereitstellung. Dank dieser Flexibilität kann WAAP eine Reihe von Architekturen unterstützen, von Multi-Cloud- und Hybrid-Umgebungen bis hin zu komplexeren, regionsspezifischen Konfigurationen.Der Edge-basierte Ansatz von Gcore lässt sich nahtlos in Multi-Cloud- und Hybrid-Umgebungen integrieren und erleichtert Unternehmen die Skalierung und Anpassung von Sicherheitskonfigurationen, wenn sie wachsen. Diese Flexibilität ist besonders wertvoll für Unternehmen, die in neue Regionen expandieren oder neue Technologien einführen, da Edge WAAP sich an ihre individuellen Infrastrukturanforderungen anpassen kann.Garantierte Sicherheit und Leistung mit Edge-basiertem WAAPEdge-basiertes WAAP ist eine leistungsstarke Lösung zur Sicherung moderner Anwendungen und APIs. Gcore WAAP bringt die Sicherheit näher an die Kunden heran und sorgt so für einen schnelleren und effizienteren Schutz dank unseres riesigen globalen Netzwerks von mehr als 180 Präsenzpunkten (PoPs) in mehr als 95 Ländern .Gcore WAAP arbeitet am Edge, um umfassenden Schutz vor DDoS-Angriffen, böswilligen Bots und API-Schwachstellen zu bieten. Außerdem lässt sie sich leicht skalieren, um hohe Datenverkehrsanforderungen in verteilten Multi-Cloud-Systemen zu bewältigen. Erfahren Sie, wie Gcore WAAP weltweit unübertroffene Geschwindigkeit bietet und Ihren Anwendungen robuste Sicherheit in einer Umgebung mit geringer Latenz ermöglicht.Erfahren Sie mehr über Gcore WAAP

Cyber Monday steht vor der Tür. Das gilt auch für die Hacker

Black Friday und Cyber Monday (BFCM) sind zwei der größten Online-Einkaufstage des Jahres. Im Jahr 2023 erreichten die Umsätze im E-Commerce in der Weihnachtszeit allein in den USA mehr als 12 Milliarden Dollar und für dieses Jahr wird ein weiterer Anstieg erwartet. Da das Online-Shopping in den letzten zehn Jahren immer beliebter geworden ist, hat sich die Begeisterung für BFCM auch über die Landesgrenzen hinaus verbreitet und ist heute eine der geschäftigsten Zeiten für Einzelhändler weltweit.Dieser Umsatzanstieg ist zwar eine gute Nachricht für die Unternehmen, doch zieht der Hype auch Cyberkriminelle an, die sich die verstärkte Online-Aktivität zunutze machen wollen. Hier erfahren Sie, warum Hacker BFCM ausnutzen wollen, wie sie dies tun und wie sich Unternehmen vor Hacks in der Weihnachtszeit schützen können.Kenne deinen Feind: Um was geht es für die Hacker?Es gibt mehrere Gründe, warum Cyberkriminelle es auf E-Commerce-Websites abgesehen haben, insbesondere während der geschäftigen Einkaufszeit zum Jahresende.Gestohlene Waren: Der persönliche Gewinn ist oft ein Hauptmotiv. Hacker nutzen ihre technischen Fähigkeiten, um Schwachstellen auf E-Commerce-Websites oder Zahlungsplattformen auszunutzen, um Einzelhändler um ihre Waren zu betrügen, ohne sie zu bezahlen.Angeberei: Hacker sind nicht nur durch finanzielle Belohnungen motiviert. Manche wollen auch im Internet mit dem Chaos prahlen, das sie verursacht haben, vor allem, wenn sie behaupten können, dass sie an den einkaufsreichsten Tagen des Jahres große Websites zum Stillstand gebracht haben.Sabotage von Konkurrenten: Einige Hacker-Aktivitäten gehen auf organisierte Gruppen zurück, die sich einen Vorteil auf dem Markt verschaffen wollen, indem sie ihren Konkurrenten zu einem Zeitpunkt finanziellen Schaden zufügen, an dem sich dies am stärksten auf deren Gewinne und deren Ruf auswirkt.Lösegeldforderungen: Inmitten des Trubels stehlen Hacker private und sensible Daten, um Unternehmen zu erpressen und Geld zu erpressen. Unternehmen könnten in Erwägung ziehen, Hacker zu bezahlen, um sie daran zu hindern, ein Datenleck aufzudecken.Übliche Angriffsmethoden der CyberkriminalitätCyberkriminelle suchen zunehmend nach neuen Wegen, um E-Commerce-Websites anzugreifen. Dies sind nur einige Techniken, die Sie kennen sollten.Automatisierte Scanner: Cyberkriminelle nutzen diese Tools, um Tausende von Websites zu scannen und nach Schwachstellen zu suchen, die sie ausnutzen können. Da der Scanvorgang nicht manuell überwacht werden muss, können die Kriminellen in kurzer Zeit maximalen Schaden anrichten.Phishing-Angriffe: Hacker zielen auch direkt auf Kunden ab. Mithilfe von E-Mails, Pop-up-Fenstern und gefälschten Nachrichten verleiten die Kriminellen Menschen dazu, ihre Konto- und Kreditkartendaten weiterzugeben. Die Kriminellen nutzen diese Daten dann für ihre Einkäufe. Für das Unternehmen können dann Verluste entstehen, wenn es diese betrügerischen Transaktionen zurückerstatten muss.Malware: Malware oder „schädliche Software“ kann ohne Wissen des Eigentümers direkt in ungeschützte E-Commerce-Websites eingeschleust werden. Diese Malware ermöglicht es Kriminellen, unbemerkt Geld, Anmeldeinformationen und andere Benutzerdaten zu stehlen.DDoS-Angriffe: Skrupellose Kriminelle verwenden Hacking-Tools und Bots, um riesige Mengen an Traffic auf eine Website zu leiten. Diese Zunahme des Traffics hindert legitime Kunden daran, auf die Website zuzugreifen, und zwingt sie dazu, bei der Konkurrenz zu kaufen, was zu Umsatzeinbußen für die betroffenen Unternehmen führt.Geschenkkarten-Knacken: Angreifer nutzen die Hochsaison für Geschenke aus, indem sie Millionen von Zahlenvariationen durch Geschenkkartenformulare laufen lassen. Auf diese Weise können sie Geschenkkartennummern mit positivem Kontostand ermitteln und sie verkaufen, bevor der rechtmäßige Karteninhaber die Möglichkeit hat, sie zu benutzen.Kontoübernahmen: Betrüger können mithilfe automatisierter Bots die Anmeldedaten von Kundenkonten übernehmen, um andere böswillige Aktivitäten auszuführen, z. B. die Kontrolle über das Konto zu übernehmen, Datendiebstahl zu begehen und unbefugte Einkäufe zu tätigen.Horten von Lagerbeständen: Feindliche Bots manipulieren das Inventar von Einzelhandels-Websites, indem sie eine Kauftransaktion starten und nicht abschließen. Da viele Online-Shops ihre Lagerbestände in Echtzeit aktualisieren und Artikel während des Transaktionsprozesses als nicht vorrätig kennzeichnen, können echte Kunden keine Artikel kaufen, die eigentlich zum Verkauf stehen, weil sie scheinbar nicht verfügbar sind.Scalping-Angriffe: Cyberkriminelle setzen automatisierte Scalping-Bots ein, um begehrte, stark nachgefragte Produkte wie Konzertkarten, Designerkleidung oder beliebtes Spielzeug zu kaufen. Die Käufe werden dann zu überhöhten Preisen auf Websites Dritter oder auf dem Schwarzmarkt weiterverkauft, sodass sowohl die Unternehmen als auch die Kunden leer ausgehen.So können sich Unternehmen schützenTrotz der Tatsache, dass die Betrüger immer innovativer werden, ist die gute Nachricht, dass fast 99 % der Angriffe durch grundlegende Sicherheitsvorkehrungen verhindert werden können. Zunächst einmal sollten Unternehmen sicherstellen, dass ihr E-Commerce-System und ihre Plugins immer auf dem neuesten Stand sind und dass sie keine nicht vertrauenswürdige Open-Source-Software verwenden. Virtuelles Patching, das Schwachstellen beseitigt, indem es als virtueller Schutzschild fungiert und bösartigen Traffic filtert, kann dieses Problem lösen.Es ist auch ratsam, keine sensiblen Kundendaten auf den Systemen Ihres Unternehmens zu speichern, die über das absolut Notwendige hinausgehen. Das Speichern von Kreditkartennummern und sensiblen Kundendaten ist streng geregelt und erfordert von Unternehmen die Einhaltung von Standards wie PCI DSS oder ISO 2700x. Selbst vorschriftsmäßig vorgehende Unternehmen sollten nur das speichern, was für die Aufrechterhaltung ihrer E-Commerce-Website zwingend erforderlich ist, um das Risiko im Falle eines Cyberangriffs zu minimieren.Der Schutz Ihrer Website ist keine einmalige Aufgabe. Es ist wichtig, regelmäßig nach Schwachstellen im Code und in der Anwendungsschicht einer Website zu suchen. Schwachstellen-Scanner konzentrieren sich auf die Identifizierung und Auflistung von Schwachstellen auf Ihrer Website und dienen als erster Schritt zur Risikominderung.Zu den Tools, mit denen Websites kontinuierlich vor bösartigem Datenverkehr geschützt werden können, gehören WAAP und DDoS-Schutz. Diese arbeiten im Hintergrund, um Ihre Infrastruktur vor häufigen Angriffen zu schützen, bevor sie geschehen, sodass Sie die Folgen nicht abmildern müssen. Wenn Sie diese Aufgaben an einen zuverlässigen Drittanbieter auslagern, können Sie sich entspannt zurücklehnen und wissen, dass Ihre Sicherheitslösung selbst die komplexesten und neuesten Bedrohungen abwehrt.So kann Gcore helfen, Ihre Website abzusichernEs ist noch Zeit, Sicherheitsmaßnahmen für Ihre Website zu implementieren, bevor die Saison der Weihnachtseinkäufe beginnt. Die bewährten Sicherheitslösungen von Gcore, WAAP und DDoS Protection, können zum Schutz Ihrer Website und Ihres E-Commerce-Frameworks beitragen.Wenn Sie Ihre Sicherheitsprobleme im Urlaub mit uns besprechen möchten, nehmen Sie Kontakt mit uns auf. Einer unserer Experten kann Ihnen bei der Entscheidung helfen, was für Ihr Unternehmen das Richtige ist, damit Sie sich auf die Betreuung Ihrer Kunden konzentrieren können, anstatt sich gegen Betrüger zu wehren.Kontaktieren Sie uns, um Ihre Anforderungen an die Cybersicherheit zu besprechen

Melden Sie sich für unseren Newsletter an

Erhalten Sie die neuesten Branchentrends, exklusive Einblicke und Gcore-Updates direkt in Ihren Posteingang.