Neuer Radar Report: DDoS - Trends entdecken, Schutz optimieren.Zum Report

Produkte

Lösungen

Ressourcen

Partner

Warum Gcore

  1. Home
  2. Blog
  3. Wie man eine mobile Streaming-App fĂŒr Android erstellt

Wie man eine mobile Streaming-App fĂŒr Android erstellt

  • Von Gcore
  • June 9, 2022
  • 6 Min.
Wie man eine mobile Streaming-App fĂŒr Android erstellt

Livestreaming von MobilgerÀten aus ermöglicht es Ihnen, mit Ihrem Publikum zu connecten, unabhÀngig davon, wo Sie sich gerade befinden. Entsprechende Dienste sind sehr beliebt und werden in den verschiedensten Anwendungsbereichen genutzt.

In diesem Artikel werden wir nĂ€her darauf eingehen, wie Sie Ihre eigene Anwendung fĂŒr mobiles Streaming und das Betrachten von Livestreams auf Android erstellen und wie Sie diese in Gcore Streaming-Plattform integrieren können.

Mobile livestreaming with Gcore Streaming Platform

Streaming-Protokolle

Streaming-Protokolle werden verwendet, um Video und Audio ĂŒber öffentliche Netzwerke zu ĂŒbertragen. Eines der gĂ€ngigsten Streaming-Protokolle ist RTMP. Es wird von den meisten Streaming-Plattformen unterstĂŒtzt. RTMP ist zuverlĂ€ssig und eignet sich aufgrund der niedrigen Latenzzeit und der wiederholten Übertragung von Datenpaketen auf der Grundlage des TCP Protokolls perfekt fĂŒr Livestreaming.

Um Content auf die GerĂ€te von Nutzern zu bringen und ihn dort abzuspielen, bieten Streaming-Plattformen die beliebten und skalierbaren Broadcast-Formate HLS und DASH an. DarĂŒber hinaus sind Android-GerĂ€te von Haus aus mit einem MediaPlayer ausgestattet, der die HLS Wiedergabe unterstĂŒtzt. Aus diesem Grund werden wir uns schwerpunktmĂ€ĂŸig mit diesem Protokoll befassen.

AuswÀhlen einer Bibliothek zum Erstellen eines RTMP Streams

Es gibt nur wenige Open-Source-Lösungen fĂŒr RTMP Streaming ĂŒber Android-GerĂ€te, und noch weniger wirklich funktionelle Optionen. Sehen wir uns einige von ihnen genauer an.

1. rtmp-rtsp-stream-client-java

Vorteile:

  • Neue, regelmĂ€ĂŸig aktualisierte Bibliothek
  • MindestunterstĂŒtzung fĂŒr API 16
  • UnterstĂŒtzung fĂŒr die APIs Camera und Camera2
  • Kamerawechsel wĂ€hrend des Streamens
  • Adaptive Bitrate
  • Aktivierung/Deaktivierung von Audio und Video wĂ€hrend des Streamens
  • Möglichkeit zum Konfigurieren von Broadcasting-Parametern
  • Installation von OpenGL Filtern, Bildern, GIFs oder Text in Echtzeit
  • Einfach zu bedienen: alles funktioniert standardmĂ€ĂŸig, ohne zusĂ€tzliche Anpassungen
  • VerfĂŒgbarkeit von Dokumentation und Anleitungen fĂŒr die Bibliothek auf GitHub
  • Unkompliziertes Importieren von Bibliotheken ĂŒber Gradle

Nachteile:

  • Keine Pausefunktion fĂŒr einen Broadcast-Stream verfĂŒgbar

2. HaishinKit

Vorteile:

  • Stabile Updates
  • UnterstĂŒtzt RTMP Wiedergabe
  • Verwendet die aktuelle Camera2-API
  • UnterstĂŒtzt Kamerawechsel wĂ€hrend des Streamens
  • Erlaubt das Konfigurieren von Broadcasting-Parametern

Nachteile:

  • Keine Option fĂŒr eine adaptive Bitrate
  • Keine Pausefunktion fĂŒr einen Broadcast-Stream verfĂŒgbar

3. LiveVideoBroadcaster

Vorteile:

  • MindestunterstĂŒtzung fĂŒr API 28
  • Kamerawechsel wĂ€hrend des Streamens
  • Adaptive Stream-QualitĂ€t (Framerate und Bitrate)
  • Aktivierung/Deaktivierung von Audio wĂ€hrend des Streamens

Nachteile:

  • Nicht mehr aktuell: letztes Update am 28. Juli 2020
  • Verwendet veraltete Camera-API
  • Kein Importieren von Bibliotheken ĂŒber Gradle möglich
  • Sehr viel komplexer als rtmp-rtsp-stream-client-java
  • Von der Bibliothek gesendete Frames enthalten Fehler (DC, AC, MV)

Zusammenfassend lĂ€sst sich sagen, dass rtmp-rtsp-stream-client-java unter allen drei Optionen die meisten Vorteile und die wenigsten Nachteile aufweist. Aus diesem Grund halten wir diese Bibliothek fĂŒr die am besten geeignete Lösung.

Streaming-Implementierung ĂŒber das RTMP Protokoll von einem Android-Smartphone

Die Bibliothek rtmp-rtsp-stream-client-java bietet zwei Arten von Objekten fĂŒr das Streaming â€” RtmpCamera1 und RtmpCamera2. Ersteres verwendet die Camera-API, um den Stream von Ihrer Smartphone-Kamera zu erfassen, wĂ€hrend Letzteres die Camera2-API verwendet.

Wir empfehlen die Verwendung von RtmpCamera2, da die Camera-API seit Android API Level 21 veraltet ist. In unserem Beispiel wird die aktuellste RtmpCamera2-Version verwendet.

Wir werden uns nun Schritt fĂŒr Schritt ansehen, wie die Bibliothek rtmp-rtsp-stream-client-java fĂŒr mobiles Streaming verwendet wird. Doch zunĂ€chst ein kurzer Überblick ĂŒber ihre Funktionsweise.

  • Wenn die Methodeaufgerufen wird, wird das Bild der Kamera erfasst.
  • Die erfasste Kamerasitzung wird an den OpenGlView-Eingang gesendet, wo sie dem Benutzer angezeigt wird.
  • Wenn die Methodeaufgerufen wird, wird eine Verbindung zum Remote-Server hergestellt.
  • Die von der Kamera erfasste Sitzung wird ĂŒber das RTMP Protokoll an die festgelegte rtmpUrl ĂŒbertragen.

Schauen wir uns nun Schritt fĂŒr Schritt an, wie man mobiles Online-Streaming einrichtet.

1. Init

Um die Bibliothek rtmp-rtsp-stream-client-java in Ihrem Projekt zu verwenden, mĂŒssen Sie AbhĂ€ngigkeiten zu build.gradle hinzufĂŒgen:

allprojects {   repositories {       maven { url ’https://jitpack.io’ }   }}dependencies {    implementation ’com.github.pedroSG94.rtmp-rtsp-stream-client-  java:rtplibrary:2.1.7’}

Aktuelle Version der Bibliothek

2. Berechtigungen

Geben Sie die erforderlichen Berechtigungen in der Datei AndroidManifest.xml an:

<uses-permission android:name="android.permission.INTERNET"/><uses-permission android:name="android.permission.ACCESS_NETWORK_STATE"/><uses-permission android:name="android.permission.CAMERA"/><uses-permission android:name="android.permission.RECORD_AUDIO"/>

3. Anzeigen des Kamera-Streams

Wenn Sie mit einer Smartphone-Kamera streamen, mĂŒssen Sie sehen, was der Stream zeigt. Zu diesem Zweck wird in einer entsprechenden Ansicht der Kamerastream auf dem Bildschirm angezeigt. Android verwendet SurfaceView oder TextureView. Die verwendete Bibliothek verfĂŒgt auch ĂŒber eine eigene OpenGlView, die von SurfaceView abstammt.

Mit RtmpCamera1 können Sie jede dieser Ansichten verwenden, wohingegen mit RtmpCamera2 nur OpenGlView verfĂŒgbar ist. Aber von diesen Ansichten ermöglicht Ihnen nur OpenGlView, verschiedene Filter, Bilder, GIFs oder Text wĂ€hrend des Streamens zu verwenden.

FĂŒgen Sie OpenGlView zu „Layout Activity“ oder „Fragment“ hinzu, um den Kamerastream zu sehen:

<com.pedro.rtplibrary.view.OpenGlView android:id="@+id/openGlView" android:layout_width="match_parent" android:layout_height="match_parent" android:keepScreenOn="true" android:visibility="gone" app:keepAspectRatio="true" app:aspectRatioMode="adjust"/>

4. Vorbereitungen fĂŒr das Streamen

Um das Objekt RtmpCamera2 zu initialisieren, benötigen Sie das Objekt OpenGlView und die Schnittstellenimplementierung ConnectCheckerRtmp:

private val connectCheckerRtmp = object : ConnectCheckerRtmp {    override fun onAuthErrorRtmp() {      _toastMessageId.postValue(R.string.auth_error)    }    override fun onAuthSuccessRtmp() {        _toastMessageId.postValue(R.string.auth_success)     }     override fun onConnectionFailedRtmp(reason: String) {         _toastMessageId.postValue(R.string.connection_failed)         stopBroadcast()      }      override fun onConnectionStartedRtmp(rtmpUrl: String) {}      override fun onConnectionSuccessRtmp() {          _toastMessageId.postValue(R.string.connection_success)          _streamState.postValue(StreamState.PLAY)        }        override fun onDisconnectRtmp() {            _toastMessageId.postValue(R.string.disconnected)            _streamState.postValue(StreamState.STOP)         }         override fun onNewBitrateRtmp(bitrate: Long) {}}

Um die adaptive Bitrate zu verwenden, mĂŒssen Sie einige ErgĂ€nzungen an der Implementierung dieser Schnittstelle vornehmen:

//... private lateinit var bitrateAdapter: BitrateAdapter override fun onConnectionSuccessRtmp() {      bitrateAdapter = BitrateAdapter { bitrate -> rtmpCamera2?.setVideoBitrateOnFly(bitrate)      }.apply { setMaxBitrate(StreamParameters.maxBitrate)      }   _toastMessageId.postValue(R.string.connection_success)     _currentBitrate.postValue(rtmpCamera2?.bitrate)_streamState.postValue(StreamState.PLAY) } //... override fun onNewBitrateRtmp(bitrate: Long) {    bitrateAdapter.adaptBitrate(bitrate) _currentBitrate.postValue(bitrate.toInt()) disableStreamingAfterTimeOut() }

FĂŒgen Sie einen Callback zum Objekt OpenGlView hinzu. Die Callback-Methoden werden dazu verwendet, die Kameravorschau zu starten und zu beenden:

private val surfaceHolderCallback = object : SurfaceHolder.Callback { override fun surfaceCreated(holder: SurfaceHolder) { rtmpCamera2?.startPreview( StreamParameters.resolution.width, StreamParameters.resolution.height ) } override fun surfaceChanged(holder: SurfaceHolder, format: Int, width: Int, height: Int) {} override fun surfaceDestroyed(holder: SurfaceHolder) { rtmpCamera2?.stopPreview() } }binding.openGlView.holder.addCallback(surfaceHolderCallback)

Erstellen Sie das Objekt RtmpCamera2, das fĂŒr das Streaming verwendet werden soll:

rtmpCamera2 = RtmpCamera2(openGlView, connectCheckerRtmp)

5. Starten und Beenden von Livestreams

Legen Sie die Video- und Audioparameter fest, und starten Sie den Livestream.

Livestream mit Standardparametern:

fun startBroadcast(rtmpUrl: String) {      rtmpCamera2?.let {             if (!it.isStreaming) {                  if (it.prepareAudio() && it.prepareVideo()) { _streamState.value = StreamState.PLAY it.startStream(rtmpU                  } else {   _streamState.value = StreamState.STOP_toastMessageId.value = R.string.error_preparing_stream                  }           }     }}

Livestream mit benutzerdefinierten Parametern:

fun startBroadcast(rtmpUrl: String) {     val audioIsReady = rtmpCamera2.prepareAudio(  StreamParameters.audioBitrate,  StreamParameters.sampleRate,   StreamParameters.isStereo, StreamParameters.echoCanceler, StreamParameters.noiseSuppressor      )      val videoIsReady = rtmpCamera2.prepareVideo( StreamParameters.resolution.width, StreamParameters.resolution.height,          StreamParameters.fps, StreamParameters.startBitrate, StreamParameters.iFrameIntervalInSeconds, CameraHelper.getCameraOrientation(getApplication())       )       rtmpCamera2?.let {               if (!it.isStreaming) {                   if (audioIsReady && videoIsReady) {     _streamState.value = StreamState.PLAY  it.startStream(rtmpU                    } else { _streamState.value = StreamState.STOP _toastMessageId.value = R.string.error_preparing_stream                     }              }       }}

Den Stream beenden:

fun stopBroadcast() {     rtmpCamera2?.let {            if (it.isStreaming) {               _streamState.value = StreamState.STOP               it.stopStream()            }       }}

Integration mit Gcore Streaming-Plattform

Erstellen eines Kontos bei Gcore

Um die Streaming-Plattform in das Projekt zu integrieren, mĂŒssen Sie mit Ihrer E-Mail und Ihrem Kennwort ein kostenfreies Konto bei Gcore erstellen.

Aktivieren Sie den Dienst, indem Sie Free Live oder einen anderen geeigneten Tarif wÀhlen.

FĂŒr die Interaktion mit Gcore Streaming-Plattform werden wir die Gcore-API verwenden. Wir werden Anfragen unter Verwendung von Retrofit in Verbindung mit RxJava ausfĂŒhren. Sie können aber auch jede andere Methode zur Übermittlung von HTTP Anfragen verwenden, wenn Sie möchten.

Autorisierung

Loggen Sie sich ein, um mit der API zu arbeiten. Verwenden Sie die E-Mail und das Kennwort, die Sie bei der Registrierung eingegeben haben, um den Access Token zu erhalten, den Sie fĂŒr weitere Anfragen benötigen.

class AuthRequestBody(     @SerializedName("username") val eMail: String,     @SerializedName("password") val password: String,@SerializedName("one_time_password") val oneTimePassword: String = "authenticator passcode")interface AuthApi {        @POST("./auth/jwt/login")        fun performLogin(@Body body: AuthRequestBody): Single<AuthResponse>}private fun auth(eMail: String, password: String) {     val requestBody = AuthRequestBody(eMail = eMail, password = password)      compositeDisposable.add( (requireActivity().application as GCoreApp).authApi .performLogin(requestBody) .subscribeOn(Schedulers.computation()) .observeOn(AndroidSchedulers.mainThread())   .auth(requireActivity(), requestBody)                    .subscribe({ authResponse ->showToast(R.string.logged_success)     saveAuthData(requestBody, authResponse) routeToStreams()                     }, { showToast(R.string.logged_fail)                     })     )}

Die PUSH URL abrufen

Es gibt zwei Möglichkeiten, die URL zum Senden des RTMP Streams abzurufen:

Methode 1. Senden Sie die Anfrage Get all live streams, um alle Livestreams abzurufen. Als Antwort erhalten Sie Daten ĂŒber alle in Ihrem Konto erstellten Streams.

Ein Beispiel fĂŒr das Senden einer Anfrage:

interface StreamsApi { /** * @param page integer; Query parameter. Use it to list the paginated content * @param with_broadcasts integer; Query parameter. * Set to 1 to get details of the broadcasts associated with the stream */ @GET("./vp/api/streams") fun getStreams( @Header("Authorization") accessToken: String, @Query("page") page: Int, @Query("with_broadcasts") withBroadcasts: Int = 1 ): Single<List<StreamItemResponse>> //...}private fun loadStreamItems(page: Int = 1) { val accessToken = getAccessToken() var currentPage = page if (currentPage == 1) { streamItems.clear() } compositeDisposable.add( (requireActivity().application as GCoreApp).streamsApi .getStreams("Bearer $accessToken", page = currentPage) .subscribeOn(Schedulers.computation()) .observeOn(AndroidSchedulers.mainThread()) .subscribe({ if (it.isNotEmpty()) { it.forEach { streamItemResponse -> streamItems.add(StreamItemModel.getInstance(streamItemResponse)) } loadStreamItems(page = ++currentPage) } else { updateDataInAdapter() } }, { it.printStackTrace() }) )}

Methode 2. Senden Sie die Anfrage Get live stream, um einen bestimmten Livestream abzurufen. Als Antwort erhalten Sie nur Daten ĂŒber den angegebenen Stream, sofern dieser existiert.

Ein Beispiel fĂŒr das Senden einer Anfrage:

interface StreamsApi { //... @GET("/vp/api/streams/{stream_id}") fun getStreamDetailed( @Header("Authorization") accessToken: String, @Path("stream_id") streamId: Int ): Single<StreamDetailedResponse> //...}private fun getStreamDetailedInfo(streamId: Int) { val accessToken = getAccessToken() compositeDisposable.add( (requireActivity().application as GCoreApp).streamsApi .getStreamDetailed("Bearer $accessToken", streamId) .subscribeOn(Schedulers.computation()) .observeOn(AndroidSchedulers.mainThread()) .subscribe({ streamDetailedInfo -> //... }, { it.printStackTrace() }) )}

Die Antworten auf diese Anfragen enthalten eine push_url, die als URL fĂŒr das Senden des RTMP Streams verwendet wird. Sobald der Stream beginnt, wird die Übertragung automatisch gestartet. WĂ€hlen Sie den gewĂŒnschten Stream in Ihrem persönlichen Konto aus. Sie können die Vorschau verwenden, bevor Sie den Stream auf Ihrer Website oder in Ihrem Player bereitstellen.

Wiedergabe eines aktiven Streams

Mit Gcore Streaming-Plattform können Sie Streams auf Ressourcen von Drittanbietern in verschiedenen Formaten, einschließlich HLS, ĂŒbertragen.

In unserem Beispiel berĂŒcksichtigen wir kein simultanes Streamen und Wiedergeben auf einem GerĂ€t. Stattdessen sollte das Streamen von einem anderen GerĂ€t aus gestartet werden.

Um den aktiven Stream wiederzugeben, verwenden Sie den standardmĂ€ĂŸigen Android MediaPlayer. Wenn Sie mehr Kontrolle ĂŒber den Stream und die Anpassungsmöglichkeiten des Players haben möchten, empfehlen wir ExoPlayer.

On-Screen-Display

Um den Videostream auf dem Smartphone-Bildschirm anzuzeigen, ist VideoView erforderlich. Es sollte dort zu „Layout Activity“ oder „Fragment“ hinzugefĂŒgt werden, wo Sie den Stream abspielen möchten:

<FrameLayout xmlns:android="http://schemas.android.com/apk/res/android" xmlns:tools="http://schemas.android.com/tools" android:layout_width="match_parent" android:layout_height="match_parent" xmlns:app="http://schemas.android.com/apk/res-auto" android:background="@color/black" android:id="@+id/streamPlayer" tools:context=".screens.StreamPlayerFragment"> <VideoView android:id="@+id/videoView" android:layout_width="match_parent" android:layout_height="match_parent" android:layout_gravity="center"/> ...</FrameLayout>

Wiedergabe starten

Vor der Wiedergabe sollte die hls_playlist_url des aktiven Streams in den Player eingebettet werden, wĂ€hrend dieser initialisiert wird. Die hls_playlist_url wird in der Antwort auf die oben erwĂ€hnte Anfrage „Get livestream“ zurĂŒckgegeben.

Initialisierung des Players:

private fun initializePlayer(streamUri: String) { val videoView = binding.videoView videoView.setVideoURI(Uri.parse(streamUri)) val mediaController = MediaController(videoView.context) mediaController.setMediaPlayer(videoView) videoView.setMediaController(mediaController) videoView.setOnPreparedListener { binding.progressBar.visibility = View.GONE videoView.start() } videoView.setonerrorListener(mediaPlayeronerrorListener)}

Sobald die Initialisierung abgeschlossen ist, können Sie die Wiedergabe durch Aufruf der Methode videoView.start() starten.

Starten des Players:

private fun releasePlayer() { binding.videoView.stopPlayback()}

Zusammenfassung

Anhand unserer Beispiele ist das Einrichten eines Livestreams in einer Android-Anwendung denkbar einfach und nimmt nicht viel Zeit in Anspruch. Alles, was Sie dazu benötigen, ist die Open-Source-Bibliothek rtmp-rtsp-stream-client-java und unsere Streaming-Plattform.

Gcore Streaming-API

Jeglichen im Artikel erwÀhnten Code finden Sie auf GitHub.

More about Streaming Platform

Ähnliche Artikel

Gcore und Northern Data Group arbeiten zusammen, um den globalen Einsatz von KI zu verÀndern

Gcore und Northern Data Group schlagen gemeinsam ein neues Kapitel der KI fĂŒr Unternehmen auf. Durch die Kombination von Hochleistungsinfrastruktur und intelligenter Software wird die kommerzielle und technologische Partnerschaft die skalierbare Bereitstellung von KI-Anwendungen unabhĂ€ngig vom Standort der Nutzer erheblich erleichtern. Im Mittelpunkt dieser aufregenden neuen Partnerschaft steht eine gemeinsame Vision: eine globale, sichere KI-Infrastruktur mit geringer Latenz, die einfach zu nutzen und schnell einsatzbereit ist.Das Intelligence Delivery Network im ÜberblickDie Implementierung von KI beschleunigt sich, aber die Infrastruktur bleibt ein großer Engpass. Viele Unternehmen stoßen auf Hindernisse in Bezug auf Latenz, Compliance und Skalierbarkeit, insbesondere bei der Bereitstellung von Modellen in mehreren Regionen. Der herkömmliche Cloud-Ansatz fĂŒhrt oft gerade dann zu KomplexitĂ€t und Overhead, wenn Geschwindigkeit und Einfachheit am wichtigsten sind.An dieser Stelle kommt das Intelligence Delivery Network (IDN) ins Spiel.Das IDN ist ein global verteiltes KI-Netzwerk, das entwickelt wurde, um Inferenzen am Edge zu erleichtern. Es kombiniert die hochmoderne Infrastruktur von Northern Data mit Gcore Everywhere Inference, um skalierbare, hochleistungsfĂ€hige KI an 180 Standorten weltweit bereitzustellen.Durch die Verlagerung der KI-Workloads nĂ€her zu den Endnutzern reduziert IDN die Latenzzeiten und verbessert die ReaktionsfĂ€higkeit â€“ ohne Kompromisse bei Sicherheit oder Compliance. Die georeferenzierte, geobalancierte Architektur gewĂ€hrleistet Ausfallsicherheit und Datenlokalisierung bei gleichzeitiger Minimierung der BereitstellungskomplexitĂ€t.Ein vollstĂ€ndiges Toolkit zur Umsetzung der KIDas IDN ist ein vollstĂ€ndiges KI-Implementierungs-Toolkit, das auf der Cloud-nativen Plattform von Gcore basiert. Die Lösung bietet einen vertikal integrierten Stack, der auf Geschwindigkeit, FlexibilitĂ€t und Skalierbarkeit ausgelegt ist. Die wichtigsten Komponenten sindManaged Kubernetes fĂŒr die OrchestrierungEine Container-basierte Deployment Engine (Docker)Eine umfangreiche Modellbibliothek, die Open-Source- und benutzerdefinierte Modelle unterstĂŒtztEverywhere Inferenz, die Software von Gcore fĂŒr die Verteilung von Inferenzen ĂŒber globale Edge-Points of PresenceDieses Toolset ermöglicht die schnelle und einfache Bereitstellung von KI-Workloads â€“ mit integrierter Skalierung, Ressourcenverwaltung und Beobachtbarkeit. Die Partnerschaft ermöglicht auch den Zugang zu einem der weltweit grĂ¶ĂŸten flĂŒssig gekĂŒhlten GPU-Cluster, der KI-Teams die Leistung bietet, die sie fĂŒr anspruchsvolle Workloads benötigen.UnabhĂ€ngig davon, ob Sie ein neues KI-basiertes Produkt entwickeln oder ein bestehendes Modell skalieren möchten, bietet IDN einen klaren Weg von der Entwicklung bis zur Produktion.Auf Skalierbarkeit und Performance ausgelegtDie gemeinsame Lösung orientiert sich an den BedĂŒrfnissen von Unternehmenskunden. Sie unterstĂŒtzt mandantenfĂ€hige Bereitstellungen, lĂ€sst sich in vorhandene Cloud-native Tools integrieren und bietet hohe Leistung, ohne die Kontrolle zu verlieren. Die Kunden erhalten die FlexibilitĂ€t, die sie benötigen, um die Lösung ĂŒberall und jederzeit zu implementieren und gleichzeitig Sicherheit und Compliance auf Unternehmensebene zu gewĂ€hrleisten.Andre Reitenbach, CEO von Gcore, kommentiert: „Diese Zusammenarbeit unterstĂŒtzt die Mission von Gcore, die Welt ĂŒberall und jederzeit mit KI zu verbinden. Gemeinsam ermöglichen wir die nĂ€chste Generation von KI-Anwendungen mit niedriger Latenz und hoher Skalierbarkeit“.„Wir kombinieren die HPC- und Rechenzentrumsinfrastruktur-Expertise von Northern Data mit der Spezialisierung von Gcore auf Software-Innovation und -Entwicklung“, sagt Aroosh Thillainathan, GrĂŒnder und CEO der Northern Data Group. „Damit können wir unsere Vision beschleunigen, eine softwarebasierte KI-Infrastruktur ĂŒber ein weltweit verteiltes Computernetzwerk bereitzustellen. Wir befinden uns in einer entscheidenden Phase, in der sich der Einsatz von KI-Lösungen weiterentwickelt, und wir glauben, dass diese Partnerschaft ein wichtiger Bestandteil davon sein wird“.Intelligentere und schnellere KI-Implementierung mit Gcore und Northern Data GroupKI ist die neue Grundlage des digitalen GeschĂ€fts. Die globale Bereitstellung sollte kein Team von Infrastrukturingenieuren erfordern. Mit Gcore und der Northern Data Group erhalten Unternehmensteams die Tools und die UnterstĂŒtzung, die sie benötigen, um KI in großem Umfang und mit hoher Geschwindigkeit zu betreiben.Ganz gleich, was Sie und Ihre Teams mit KI erreichen wollen, das neue Intelligence Delivery Network hilft Ihnen, intelligenter und schneller zu arbeiten.Lesen Sie die vollstĂ€ndige Pressemitteilung

Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

KI-Entwicklungen erobern die Welt im Sturm. Unternehmen sollten sich aber bewusst sein, dass neue Chancen auch neue Herausforderungen mit sich bringen. Dem Impuls, die Technologie zu nutzen, mĂŒssen verantwortungsvolle Regel fĂŒr deren Einsatz vorausgehen. Nur so ist sichergestellt, dass durch KI weder Unternehmen noch ihre Kunden Risiken ausgesetzt sind. Um diesem Anspruch gerecht zu werden, entwickeln Regierungen weltweit Gesetze zur Regulierung von KI und Datennutzung.Sich in einem immer komplexeren Netz von internationalen Vorschriften zurechtzufinden, kann ĂŒberfordernd sein. Deshalb werden wir in diesem Artikel die Gesetzgebung einiger fĂŒhrender KI-Hubs auf allen Kontinenten aufschlĂŒsseln und Ihnen genau die Informationen zur VerfĂŒgung stellen, die Ihr Unternehmen benötigt, um KI optimal zu nutzen – sicher, legal und ethisch vertretbar.Falls Sie unsere frĂŒheren Blogs verpasst haben, in denen wir die KI-Vorschriften nach Regionen aufgeschlĂŒsselt haben, lesen Sie sie hier: Nordamerika, Lateinamerika, Europa, APAC, Naher Osten.Um die Zusammenfassung zu lesen, gehen Sie bitte zur Übersichtstabelle.Globale Trends der KI-RegulierungAuch wenn die Vorschriften je nach Standort variieren, haben sich 2024 weltweit mehrere ĂŒbergreifende Trends herauskristallisiert. Dazu zĂ€hlen eine Fokussierung auf Datenlokalisierung, risikoabhĂ€ngige Regulierung und eine Priorisierung des Datenschutzes. Sie sind zu allgemein anerkannten Leitlinien geworden. Das gemeinsame Ziel aller LĂ€nder ist es, Innovationen zu fördern und gleichzeitig die Verbraucher zu schĂŒtzen – auch wenn die einzelnen Regionen diese Ziele auf unterschiedliche Weise zu erreichen versuchen.Viele LĂ€nder folgen dem Beispiel der EU, deren KI-Gesetz ein mehrstufiges Regulierungsmodell je nach potenziellem Risikograd vorsieht. Bei diesem System gelten fĂŒr jede Risikostufe unterschiedliche Anforderungen: FĂŒr Hochrisikoanwendungen, die entweder die öffentliche Sicherheit oder BĂŒrgerrechte betreffen, gilt eine andere Sicherheitsstufe als fĂŒr allgemeine KI-Anwendungen, bei denen die Risiken weniger hoch eingestuft werden.Europa: strukturiert und stringentEuropa hat einige der strengsten KI-Vorschriften der Welt mit Schwerpunkt Datenschutz gemĂ€ĂŸ der DSGVO sowie dem neuen risikoabhĂ€ngigen KI-Gesetz. Dieser Ansatz beruht vor allem darauf, dass die EU den Schwerpunkt auf Verbraucherrechte legt und dafĂŒr sorgt, dass die Sicherheit der Nutzerdaten durch die digitale Technologie gewĂ€hrleistet wird. Das vorgeschlagene KI-Gesetz der EU, ĂŒber das noch verhandelt wird und das bis 2025 verabschiedet sein soll, stuft KI-Anwendungen nach den Risikoklassen „inakzeptables Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „niedriges Risiko“ ein. Risikoreiche KI-Tools, wie sie bei biometrischer Identifizierung oder Finanzentscheidungen eingesetzt werden, mĂŒssen strenge Standards in Bezug auf Datenverwaltung, Transparenz und menschliche Aufsicht erfĂŒllen.Einige EU-LĂ€nder haben zusĂ€tzliche Standards zum EU-Rahmen eingefĂŒhrt, insbesondere fĂŒr mehr Datenschutz und Kontrolle. Der deutsche DSK-Leitfaden zum Beispiel konzentriert sich auf die Rechenschaftspflicht großer Sprachmodelle (LLM) und fordert mehr Transparenz, menschliche Kontrolle und die Zustimmung zur Datennutzung.Unternehmen, die KI in Europa einsetzen wollen, mĂŒssen sowohl die einheitlichen Anforderungen des KI-Gesetzes als auch die mitgliedsspezifischen Vorschriften berĂŒcksichtigen, die eine differenzierte und strenge Compliance-Landschaft schaffen.Nordamerika: neue VorschriftenDie Vorschriften fĂŒr kĂŒnstliche Intelligenz in Nordamerika sind weit weniger einheitlich als die in Europa. Die USA und Kanada sind noch dabei, ihre jeweiligen KI-Rahmenregelungen auszuarbeiten, wobei der derzeitige Ansatz der USA weniger streng und zugleich innovationsfreundlicher ist, wĂ€hrend Kanada eine zentralisierte Steuerung bevorzugt.Die Vereinigten Staaten arbeiten mit einem Hybridmodell aus bundesstaatlichen Richtlinien, wie dem Blueprint for an AI Bill of Rights, sowie einzelstaatlichen Gesetzen, wie dem California Consumer Privacy Act (CCPA) und dem Virginia Consumer Data Protection Act (VCDPA), die dazu dienen, einige der strengeren Datenschutzvorschriften durchzusetzen. Die zweistufige Vorgehensweise Ă€hnelt dem in der EU, wo es sowohl Vorschriften auf EU-Ebene als auch auf LĂ€nderebene gibt.Der grundsĂ€tzlich liberale Ansatz der USA entspricht dem dortigen VerstĂ€ndnis der freien Marktwirtschaft und rĂ€umt Innovation und Wachstum den Vorrang vor strengen Sicherheitsmaßnahmen ein. Doch nicht alle Staaten machen sich einen solch freizĂŒgigen Umgang zu eigen. Die Divergenz zwischen strengen einzelstaatlichen Gesetzen und eher lockeren Bundesrichtlinien kann zu einer fragmentierten Regulierungslandschaft fĂŒhren, die fĂŒr Unternehmen nur sehr schwer zu durchschauen ist.Asien-Pazifik (APAC): divergierende Strategien mit Fokus auf InnovationDie APAC-Region entwickelt sich schnell zu einem globalen Spitzenreiter in Sachen KI-Innovation, deren wichtigsten MĂ€rkte das technologische Wachstum in verschiedenen Sektoren maßgeblich vorantreiben. Die Regierungen in der Region haben darauf mit der Schaffung von Rahmenbedingungen reagiert, die den verantwortungsvollen Einsatz von KI und die DatensouverĂ€nitĂ€t in den Vordergrund stellen. Indiens kĂŒnftiges Gesetz zum Schutz digitaler personenbezogener Daten (Digital Personal Data Protection Bill, DPDPB), Singapurs Modellrahmen fĂŒr KI-Governance (Model AI Governance Framework) und SĂŒdkoreas Gesetz zur Förderung der KI-Industrie (AI Industry Promotion Act) werfen ein Schlaglicht auf die regulatorische Vielfalt in der Region und unterstreichen gleichzeitig die gemeinsame Forderung nach Transparenz und Datenlokalisierung.Es gibt keinen einheitlichen Ansatz fĂŒr die Regulierung von KI in der APAC-Region. LĂ€nder wie China setzen beispielsweise einige der weltweit strengsten Gesetze zur Datenlokalisierung durch, wĂ€hrend Japan „Soft-Law“-Prinzipien eingefĂŒhrt hat und bald verbindliche Vorschriften erwartet. Diese unterschiedlichen AnsĂ€tze spiegeln die spezifische Balance zwischen Innovation und Verantwortung in jedem Land wider.Lateinamerika: neue Normen fĂŒr den DatenschutzDie lateinamerikanische KI-Regulierungslandschaft befindet sich noch in der Entstehungsphase, wobei ein gemeinsamer Schwerpunkt auf dem Datenschutz liegt. Brasilien, das in der Region fĂŒhrend bei der digitalen Regulierung ist, erließ das Allgemeine Datenschutzgesetz (General Data Protection Law, LGPD) ein, das in seinem datenschutzfreundlichen Ansatz – Ă€hnlich wie das argentinische Datenschutzgesetz– eng an die DSGVO angelehnt ist. Mexiko prĂŒft ebenfalls eine KI-Gesetzgebung und hat bereits unverbindliche Leitlinien herausgegeben, in denen ethische GrundsĂ€tze und Menschenrechte betont werden.WĂ€hrend sich die regionale KI-Politik noch in der Entwicklung befindet, tendieren andere lateinamerikanische LĂ€nder wie Chile, Kolumbien, Peru und Uruguay zu Rahmenwerken, die Transparenz, die Zustimmung der Nutzer und menschliche Kontrolle in den Vordergrund stellen. Mit der zunehmenden Verbreitung von KI werden die lateinamerikanischen LĂ€nder wahrscheinlich dem Beispiel der EU folgen und risikobasierte Vorschriften einfĂŒhren, die sich mit Hochrisikoanwendungen, Datenverarbeitungsstandards und Datenschutzrechten befassen.Naher Osten: Zentren fĂŒr KI-InnovationenDie LĂ€nder des Nahen Ostens investieren erheblich in KI, um das Wirtschaftswachstum anzukurbeln, weshalb auch die Politik besonders innovationsfreundlich ist. In vielen FĂ€llen liegt der Schwerpunkt der Politik sowohl auf der Entwicklung technologischer Spitzenleistungen und der freiwilligen Einhaltung durch die Unternehmen als auch auf strengen gesetzlichen Anforderungen. Dies macht die Region zudem besonders komplex fĂŒr Unternehmen, die sich bemĂŒhen, sich den Bedingungen jedes Landes anzupassen.Die VAE wollen sich durch Initiativen wie die UAE National AI Strategy 2031 als weltweit fĂŒhrend im KI-Sektor positionieren. Die Strategie umfasst ethische Leitlinien, legt aber auch Wert auf eine innovationsfreundliche Politik, die Investitionen anzieht. Saudi-Arabien geht einen Ă€hnlichen Weg. Vorschriften wie die Standards fĂŒr Datenmanagement und den Schutz personenbezogener Daten (Data Management and Personal Data Protection Standards)konzentrieren sich auf Transparenz und Datenlokalisierung, um die Daten der BĂŒrger zu schĂŒtzen und gleichzeitig die rasche Entwicklung von KI in allen Bereichen zu fördern. Israels KI-Regulierung stĂŒtzt sich auf flexible, in den Datenschutzgesetzen verankerte Richtlinien, einschließlich des Datenschutzgesetzes (Privacy Protection Law, PPL), das 2024 geĂ€ndert wurde, um es an die DSGVO der EU anzupassen.Übersichtstabelle mit ZusammenfassungRegionLand/RegionVorschrift/RichtlinieSchwerpunktAuswirkungen auf die WirtschaftEuropaEUKI-Gesetz (geplant)RisikoabhĂ€ngige KI-Klassifizierung; hohe Standards bei Datenverwaltung, Transparenz und menschlicher AufsichtHöhere AufwĂ€nde bei Compliance, mögliche Verzögerungen bei der EinfĂŒhrung von KI aufgrund strikter Auflagen EUDatenschutzgrundverordnung (DSGVO)Datenschutz, Zustimmung zur Datenverarbeitung, BeschrĂ€nkungen fĂŒr grenzĂŒberschreitende DatenĂŒbertragungenErhöhte Betriebskosten fĂŒr die Einhaltung der Vorschriften, Herausforderungen fĂŒr die globale DatenĂŒbertragung und -speicherungNordamerikaUSAEntwurf fĂŒr ein KI-GrundgesetzKI-Sicherheit, Datenschutz, Fairness; unverbindliche staatliche LeitlinienFlexibilitĂ€t ermöglicht Innovation, aber Gesetze auf LĂ€nderebene erhöhen das Risiko der Fragmentierung von Vorschriften USA (Bundesstaaten)California Consumer Privacy Act (CCPA) & Virginia Consumer Data Protection Act (VCDPA)Datenschutz, Verbraucherdatenschutz, strenge Einhaltung der Vorschriften zur DatenverarbeitungErhöhte gesetzliche Anforderungen fĂŒr Unternehmen, die in strengen Bundesstaaten tĂ€tig sind KanadaArtificial Intelligence and Data Act (AIDA) (geplant)Nationale KI-Ethik und Datenschutz; Transparenz, Verantwortlichkeit fĂŒr die Nutzung personenbezogener DatenErfordert Investitionen in KI-Auditsysteme und Dokumentation KanadaPersonal Information Protection and Electronic Documents Act (PIPEDA)Datentransparenz, Zustimmung der Nutzer, Verantwortlichkeit bei der Verwendung personenbezogener DatenBietet Organisationen die Möglichkeit, durch Transparenz das Vertrauen ihrer Kunden zu gewinnenAPAC (Asien-Pazifik)IndienDigital Personal Data Protection Bill (DPDPB)Datenschutz, Einwilligung der Nutzer, DatensouverĂ€nitĂ€t, LokalisierungBetriebskosten fĂŒr Systeme zur Datenlokalisierung, limitiert grenzĂŒberschreitenden Datenfluss SingapurModell eines Rahmenwerks fĂŒr KI-GovernanceVerantwortungsvolle KI-Nutzung, Data Governance, TransparenzUnternehmen, die sich frĂŒhzeitig an den Anforderungen orientieren, sichern sich einen Wettbewerbsvorteil SĂŒdkoreaAI Industry Promotion ActUnterstĂŒtzung der KI-Industrie, Transparenz, DatenlokalisierungFördert KI-Innovationen, bringt aber Lokalisierungskosten fĂŒr internationale Unternehmen mit sich ChinaGesetze zur DatenlokalisierungStrenge Datenlokalisierung, Hoheit ĂŒber die DatenverarbeitungDie Datenlokalisierung ist mit Kosten fĂŒr die Einhaltung der Vorschriften verbunden und kann fĂŒr auslĂ€ndische Unternehmen, die in China tĂ€tig sind, Hindernisse darstellen JapanGesetz zum Schutz der PrivatsphĂ€re (Soft-Law-GrundsĂ€tze)Schutz der PrivatsphĂ€re, kĂŒnftige verbindliche Vorschriften erwartetKurzfristige geschĂ€ftliche FlexibilitĂ€t mit dem Potenzial fĂŒr zukĂŒnftige Kosten fĂŒr Compliance, wenn verbindliche Vorschriften eingefĂŒhrt werdenLateinamerikaBrasilienAllgemeines Datenschutzgesetz (General Data Protection Law, LGPD)Datenschutz, Einwilligung in die Datenverarbeitung, Transparenz bei der DatennutzungDie Angleichung an die DSGVO kann europĂ€ischen Unternehmen den Einstieg erleichtern, birgt aber auch das Potenzial, die Kosten fĂŒr die Einhaltung der Vorschriften zu erhöhen MexikoEthische GrundsĂ€tze der KI (nicht bindend)Ethische GrundsĂ€tze, Menschenrechte, Leitlinien fĂŒr den verantwortungsvollen Umgang mit KIMinimale Compliance-Anforderungen, ein „Soft-Law“-Ansatz ermöglicht Unternehmen FlexibilitĂ€t ArgentinienGesetz zum Schutz personenbezogener DatenDSGVO-konform; Einwilligung, Datenschutz, Nutzerrechte  ChileNational Intelligence PolicyMenschenrechte, Transparenz, Vermeidung von Bias beim Einsatz von KIGeringe Compliance-Kosten, aber Fokus auf ethische KI-Praktiken erforderlich KolumbienNational Policy for Digital TransformationEthische KI-Nutzung, verantwortungsvolle Entwicklung, DatensouverĂ€nitĂ€tFokus auf ethische Praktiken könnte Wettbewerbsvorteile bei öffentlichen Ausschreibungen schaffen PeruNationale Strategie fĂŒr KIKI-Infrastruktur, Ausbildung von FachkrĂ€ften, ethische DatenpraktikenSchafft Möglichkeiten fĂŒr Unternehmen, die sich mit KI-Schulungen und -Infrastrukturen befassen, erfordert jedoch ethische Orientierung UruguayAktualisierte KI-Strategie (in Arbeit)Governance in der öffentlichen Verwaltung, KI-InnovationErleichterung des Marktzugangs fĂŒr innovationsorientierte Unternehmen trotz anspruchsvoller Anpassung an Governance-RahmenbedingungenNaher OstenVAELeitfaden fĂŒr KI-Ethik und fĂŒr die EinfĂŒhrung von KIEthische Standards, Datenschutz, verantwortungsvoller Einsatz von KIUnterstĂŒtzt ethische KI-Entwicklung mit minimaler regulatorischer Belastung VAEDubai International Financial Center (DIFC) DatenschutzbestimmungenDatennutzung in KI-Anwendungen, Datenschutzrechte, DatenlokalisierungKann die DatenĂŒbertragung erschweren, positioniert Dubai aber als fĂŒhrendes KI-Land VAEKI-ChartaGovernance, Transparenz und Datenschutz in der KI-PraxisFördert die internationale Zusammenarbeit und betont den verantwortungsvollen Einsatz von KI Saudi-ArabienStandards fĂŒr Datenmanagement und Schutz personenbezogener DatenTransparenz, Datenlokalisierung, minimale EinschrĂ€nkungen fĂŒr KI-InnovationenUnterstĂŒtzt Innovation, erhöht aber Kosten fĂŒr lokalisierte Datenverarbeitung Saudi-ArabienEthische GrundsĂ€tze der KI und Richtlinien fĂŒr generative KIEthische Standards, verantwortungsvolle KI-Nutzung, Leitlinien fĂŒr die IndustrieNiedrige Compliance-Kosten fördern Innovation IsraelPrivacy Protection Law (PPL) und KI-PolitikDatenschutz, DSGVO-konforme Änderungen (KI-Politik), ethische und flexible KI-RegulierungFlexibilitĂ€t fĂŒr ethisch handelnde Unternehmen, Angleichung an DSGVO kann europĂ€ische Zusammenarbeit erleichternCompliance-Management angesichts sich ĂŒberschneidender VorschriftenCompliance-Management stellt schon immer eine Herausforderung dar. Angesichts der vielfĂ€ltigen und oft widersprĂŒchlichen Anforderungen, die weltweit gelten, ist die Einhaltung von Vorschriften heute jedoch schwieriger denn je. International tĂ€tige Unternehmen mĂŒssen eine Balance zwischen der Einhaltung strenger Vorschriften wie der EU-Datenschutzgrundverordnung (DSGVO) oder den chinesischen Gesetzen zur Datenlokalisierung und der Einhaltung flexiblerer oder innovationsorientierter Rahmenwerke in LĂ€ndern wie Singapur und Saudi-Arabien finden. Unternehmen sind gefordert, ihre AblĂ€ufe an die unterschiedlichen Standards fĂŒr Datenschutz, Transparenz und Governance anzupassen, was zu höheren Kosten und betrieblicher Ineffizienz fĂŒhren kann. Diese Fragmentierung der Vorschriften zwingt Unternehmen oft zu erheblichen Investitionen in juristische Expertise, in Compliance-Infrastruktur und in maßgeschneiderte operative Strategien, um widersprĂŒchliche Anforderungen zu erfĂŒllen.Vereinfachung globaler KI-Compliance mit GcoreFĂŒr international tĂ€tige Unternehmen stellt die Einhaltung unterschiedlicher KI-Vorschriften eine große HĂŒrde dar. State-of-the-Art-Technologien wie Sovereign Cloud und Edge Computing eröffnen jedoch neue Möglichkeiten, diese Standards zu erfĂŒllen. Sovereign Clouds ermöglichen die Datenspeicherung und -verarbeitung innerhalb bestimmter Regionen, was es den Unternehmen erleichtert, die Gesetze zur Datenlokalisierung einzuhalten und gleichzeitig von der Skalierbarkeit der Cloud zu profitieren. Anbieter wie Gcore bieten Lösungen mit einem weltweiten Netz von Datenzentren an, die globalen Unternehmen einen nahtlosen Betrieb ĂŒber Grenzen hinweg ermöglichen.Gcore ist fĂŒhrend im Edge Computing, das als ErgĂ€nzung zur Lokalisierung die Datenverarbeitung nĂ€her am Entstehungsort der Daten ermöglicht. Dies verringert den Bedarf an grenzĂŒberschreitenden DatenĂŒbertragungen und verbessert sowohl Latenzzeit als auch Netzwerkeffizienz. Dies ist besonders vorteilhaft fĂŒr KI-Anwendungen in Bereichen wie autonomes Fahren und Telemedizin, in denen sowohl Geschwindigkeit als auch KonformitĂ€t entscheidend sind. DarĂŒber hinaus vereinfacht Gcore die Einhaltung von Vorschriften wie der EU-DSGVO und dem KI-Gesetz, indem es dazu beitrĂ€gt, dass sensible Daten sicher und innerhalb der regionalen Grenzen bleiben.Entdecken Sie Gcore Inference at the Edge fĂŒr die lĂŒckenlose Einhaltung von gesetzlichen Vorschriften

Wir stellen vor: Gcore Everywhere Inference, der nÀchste Schritt in der KI-Entwicklung

Wir freuen uns, Ihnen eine entscheidende Weiterentwicklung unserer KI-Inferenzlösung der nĂ€chsten Generation prĂ€sentieren zu können: Everywhere Inference, bisher bekannt als Inference at the Edge. Dieses Update ist eine direkte Antwort auf die Herausforderungen heutiger Unternehmen. Es bietet alle notwendigen Tools, mit denen Hemmnisse wie steigende Inferenzanforderungen, betriebliche KomplexitĂ€t und Compliance-Vorschriften bewĂ€ltigt werden können.Mit Everywhere Inference können Sie KI-Inferenzen jetzt nahtlos in jeder beliebigen Umgebung einsetzen – ob On-Premises, in der Cloud von Gcore, in öffentlichen Clouds oder in einer hybriden Konfiguration. Als Antwort auf die Anforderungen unserer Kunden, die sich mit der Evolution von KI laufend verĂ€ndern, ermöglicht Everywhere Inference ein flexibles, effizientes und optimiertes Inferenzmanagement, unabhĂ€ngig von Ihrem Anwendungsfall. Diese spannende Neuerung unterstreicht, wie sich die Perspektiven fĂŒr KI bei Gcore erweitern. Was sich jedoch nie Ă€ndern wird, ist unser unermĂŒdliches Engagement fĂŒr niedrige Latenzzeiten, Skalierbarkeit und Compliance, wie Sie es von uns gewohnt sind.Wie Gcore Everywhere Inference die KI-Workloads verĂ€ndertEverywhere Inference wurde entwickelt, um Unternehmen mehr FlexibilitĂ€t und Kontrolle ĂŒber ihre KI-Workloads zu geben. Verschaffen Sie sich hier einen Überblick ĂŒber die neuesten Erweiterungen.Intelligentes Routing fĂŒr schnellere, nahtlose PerformanceWorkloads werden jetzt automatisch an die nĂ€chstgelegenen verfĂŒgbaren Rechenressourcen weitergeleitet, wodurch selbst bei zeitkritischen Anwendungen eine niedrige Latenz erreicht wird. Das bedeutet, dass geschĂ€ftskritische Anwendungen, die PrĂ€zision und Schnelligkeit erfordern – wie zum Beispiel Systeme zur Betrugserkennung in Echtzeit –, kĂŒnftig schnellere Antworten liefern, ohne die notwendige Genauigkeit zu beeintrĂ€chtigen.Multi-Tenancy fĂŒr RessourceneffizienzMit der neuen Multi-Tenancy-Funktion können Unternehmen mehrere KI-Workloads gleichzeitig auf einer gemeinsam genutzten Infrastruktur ausfĂŒhren. Dieses Prinzip maximiert die Ressourcenauslastung und reduziert die Betriebskosten, insbesondere fĂŒr Branchen wie Telekommunikation, die auf eine dynamische Netzwerkoptimierung angewiesen sind.Flexible Bereitstellung in verschiedenen UmgebungenFlexibilitĂ€t bei der Bereitstellung ermöglicht Unternehmen eine schnelle Anpassung an sich verĂ€ndernde Anforderungen und die nahtlose Integration in bestehende Infrastruktur. Ob On-Premises, in der Gcore-Cloud, in öffentlichen Clouds oder in einer hybriden Konfiguration – Everywhere Inference erleichtert es, Inferenz-Workloads ĂŒberall dort einzusetzen, wo sie gebraucht werden.Extrem niedrige Latenz durch unser globales NetzwerkMithilfe des globalen Netzwerks von Gcore mit mehr als 180 Points of Presence (PoPs) können Unternehmen ihre Workloads nĂ€her am Endbenutzer platzieren und so extrem niedrige Latenzzeiten erzielen. Unsere umfassende Infrastruktur ermöglicht Verarbeitung in Echtzeit, sofortige Bereitstellung und nahtlose Performance weltweit.Dynamische Skalierung bei LastspitzenDie bedarfsorientierte Skalierung von Ressourcen findet nun noch schneller und prĂ€ziser statt und erlaubt es Unternehmen, Lastspitzen auch ohne Überprovisionierung aufzufangen. Unternehmen mit temporĂ€ren Lastspitzen, wie beispielsweise der Einzelhandel, können solche Phasen mithilfe dynamischer Skalierung leichter bewĂ€ltigen und gleichzeitig ihre Infrastrukturkosten begrenzen.Compliance-konforme VerarbeitungEverywhere Inference wurde mit Blick auf die Einhaltung gesetzlicher Vorschriften entwickelt und erfĂŒllt die Anforderungen an Datenhoheit, einschließlich die der DSGVO. Das macht es zur idealen Wahl fĂŒr Branchen, in denen sensible Daten gespeichert und geschĂŒtzt werden mĂŒssen, unter anderem im Gesundheitswesen.Die Zukunft der KI-Inferenz ist schon daMit diesen Erweiterungen setzt Gcore Everywhere Inference neue MaßstĂ€be fĂŒr KI-Inferenzlösungen. Ganz gleich, ob Sie Echtzeitanwendungen optimieren, schnell skalieren oder durch komplexe regulatorische Umgebungen navigieren mĂŒssen: Everywhere Inference sorgt fĂŒr die Geschwindigkeit, Effizienz und FlexibilitĂ€t, die Sie im Zeitalter der KI benötigen.Entdecken Sie Everywhere Inference

Edge Cloud-Updates fĂŒr Dezember 2024

Wir freuen uns, Ihnen die neuesten Erweiterungen unserer Edge Cloud-Plattform vorstellen zu können, mit denen Sie mehr FlexibilitĂ€t, ZuverlĂ€ssigkeit und Kontrolle ĂŒber Ihre Infrastruktur erhalten. Die Updates umfassen die UnterstĂŒtzung mehrerer öffentlicher IPs fĂŒr Bare Metal und verstĂ€rkte Maßnahmen zum Schutz vor Missbrauch. FĂŒr Neukunden haben wir ein exklusives Angebot fĂŒr die Aktivierung von Bare Metal-Servern. Alle Details hierzu finden Sie in diesem Blog.UnterstĂŒtzung mehrerer öffentlicher IPs fĂŒr Bare MetalWir fĂŒhren die UnterstĂŒtzung mehrerer öffentliche IPs fĂŒr Bare Metal-Server in dedizierten öffentlichen Subnetzen ein und erhöhen damit ihre FlexibilitĂ€t und ZuverlĂ€ssigkeit. Mit diesem Update können Sie zur Sicherung einer nahtlosen ServicekontinuitĂ€t mehrere öffentliche IP-Adressen konfigurieren und so die StabilitĂ€t Ihrer Infrastruktur erhöhen. Mit mehreren IPs bleiben Ihre Dienste ohne Unterbrechung online, selbst wenn eine IP-Adresse ausfallen sollte.Diese FunktionalitĂ€t bietet eine hohe FlexibilitĂ€t und ermöglicht es Ihnen, Ihren Betrieb mĂŒhelos zu skalieren. Besonders nĂŒtzlich ist dies bei der BewĂ€ltigung unterschiedlicher Workloads, der Steuerung des Datenverkehrs und bei komplexen Hosting-Umgebungen. Es ist zudem eine ideale Lösung fĂŒr Hypervisor-Umgebungen, in denen die Trennung des Datenverkehrs ĂŒber verschiedene IPs unerlĂ€sslich ist.Das mĂŒssen Sie wissen, bevor Sie loslegen:Diese Funktion funktioniert ausschließlich mit einem dedizierten öffentlichen Subnetz.Um diese Funktion zu aktivieren, stellen Sie bitte eine Anfrage an unser Support-Team.Die Anzahl der unterstĂŒtzten öffentlichen IPs ist durch die GrĂ¶ĂŸe des dedizierten Subnetzes begrenzt, das Ihrem Bare Metal-Server zugewiesen ist.Bitte wenden Sie sich an unser Support-Team, wenn Sie kĂŒnftig mehrere öffentliche IPs nutzen möchten.VerschĂ€rfte Maßnahmen zur Vermeidung von MissbrauchWir haben neue Maßnahmen zum Schutz vor Missbrauch ergriffen, um problematische Datenverkehrsmuster zu erkennen und einzudĂ€mmen, die ZuverlĂ€ssigkeit der Services zu verbessern und Ihre Infrastruktur vor gefĂ€hrlichen AktivitĂ€ten zu sichern. Diese Updates tragen dazu bei, Ihr Netzwerk zu schĂŒtzen und eine konsistente LeistungsfĂ€higkeit Ihrer Applikationen zu erzielen.Weitere Informationen finden Sie in unserer Produktdokumentation.Testen Sie Bare Metal diesen Monat mit 35 % RabattGcore Bare Metal-Server sind die perfekte Wahl, um herausragende Performance zu erzielen und auch die anspruchsvollsten Workloads zu bewĂ€ltigen. Durch ihre globale VerfĂŒgbarkeit bieten sie eine zuverlĂ€ssige, leistungsstarke und skalierbare Lösung, wo immer Sie sie brauchen. FĂŒr begrenzte Zeit erhalten Neukunden zwei Monate lang 35 % Rabatt auf High-Frequency Bare Metal-Server*.Falls Sie von Ihrem Anbieter wĂ€hrend Spitzenzeiten enttĂ€uscht wurden oder Ihre LeistungsfĂ€higkeit fĂŒr 2025 ausbauen möchten, ist das die Gelegenheit fĂŒr Sie. Nutzen Sie das Angebot bis zum 7. Januar, um sich einen der Rabatte fĂŒr die ersten 500 Kunden zu sichern.Nutzen Sie das volle Potenzial der Edge CloudDiese Updates unterstreichen unser Engagement, Ihr Unternehmen fortlaufend mit Tools und Funktionen zu unterstĂŒtzen, die Ihre Anforderungen erfĂŒllen. Ob es um die Erhöhung von FlexibilitĂ€t, einfacheres Server-Management oder bessere Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Ob es um die Erhöhung von FlexibilitĂ€t, einfacheres Server-Management oder mehr Kostenkontrolle geht – unsere Edge-Cloud-Plattform ist so konzipiert, dass Sie Ihre Ziele mit Sicherheit erreichen können.Entdecken Sie Bare Metal von Gcore* Hinweis: Dieses Angebot gilt bis zum 7. Januar 2025. Der Rabatt gilt fĂŒr zwei Monate ab Beginn des Abonnements und exklusiv fĂŒr Neukunden, die High-Frequency Bare Metal-Server aktivieren. Der Rabatt erlischt automatisch nach zwei Monaten. Das Angebot ist auf die ersten 500 Aktivierungen beschrĂ€nkt.

Die neuen FastEdge-Updates fĂŒr November

FĂŒr FastEdge, unsere serverlose Edge-Computing-Lösung, veröffentlichen wir diesen Monat Verbesserungen, die Workflows vereinfachen, die Sicherheit erhöhen und das Anwendungsmanagement optimieren. Kunden von FastEdge haben jetzt Zugang zu Secret Storage Support, CLI und Konfigurationsvorlagen. Außerdem haben wir die Steuerung des Gcore-Kundenportals verbessert. Das sind die Neuerungen:Secret Storage SupportDie Verwaltung sensibler Informationen ist eine zentrale Herausforderung fĂŒr moderne Anwendungen. Mit dem Secret Storage Support haben Sie jetzt Zugriff auf ein robustes System zur VerschlĂŒsselung und Verwaltung von API-SchlĂŒsseln, Anmeldeinformationen, Token und anderen sensiblen Daten in den Umgebungsvariablen Ihrer Anwendung.Das bedeutet fĂŒr Sie Folgendes:Verbesserte Sicherheit: SchĂŒtzen Sie vertrauliche Informationen mit den neuesten VerschlĂŒsselungstechniken und verringern Sie so das Risiko von absichtlichen oder versehentlichen Datenlecks.Schlankere Verwaltung: Vereinfachen Sie Ihre Anwendungskonfiguration mit einem einzigen, sicheren Workflow fĂŒr Umgebungsvariablen.Einhaltung gesetzlicher Vorschriften: ErfĂŒllen Sie die strengen Datenschutz- und Datensicherheitsstandards und schĂŒtzen Sie Ihre Anwendungen damit vor VerstĂ¶ĂŸen und aufsichtsrechtlichen Konsequenzen.CLI (Command Line Interface)Die FastEdge-CLI ist ein leistungsstarkes Tool, das Entwicklern und DevOps-Teams die direkte Interaktion mit FastEdge ĂŒber eine Befehlszeilenschnittstelle ermöglicht. Diese Funktion vereinfacht ArbeitsablĂ€ufe, indem sie eine Reihe von Befehlen fĂŒr das Deployment Management, die Überwachung der Performance sowie die Integration in bestehenden CI/CD-Pipelines bietet. DarĂŒber hinaus unterstĂŒtzt sie lokale Tests, mit denen Teams Deployment-Umgebungen replizieren und Änderungen in Echtzeit erproben können, bevor sie live gehen.Das bedeutet fĂŒr Sie Folgendes:Effiziente Automatisierung: Verringern Sie menschliche Fehler durch die Automatisierung von Aktualisierungen, Skalierung und der Verwaltung von Konfigurationen.Nahtlose Integration: Optimieren Sie Ihre CI/CD-Pipelines mit FastEdge, um schnellere Entwicklungszyklen, kĂŒrzere MarkteinfĂŒhrungszeiten und geringeren Verwaltungsaufwand zu ermöglichen.Verbesserte Kontrolle: Verwenden Sie die CLI, um Einstellungen und Deployments zu verwalten, und geben Sie Entwicklern die nötige FlexibilitĂ€t, Prozesse an ihre individuellen Anforderungen anzupassen.Erhöhte FlexibilitĂ€t: Testen und debuggen Sie Ihre Anwendungen lokal, um Änderungen vor der Bereitstellung zu validieren, Risiken zu reduzieren und bessere Ergebnisse zu erzielen.Optimierte Entwicklung: Vereinfachen Sie Routineaufgaben, damit sich Ihre Teams ganz auf Innovationen und auf die Verbesserung der Performance Ihrer Anwendungen konzentrieren können.Wenn Sie den Umgang mit FastEdge CLI kennenlernen und die vollstĂ€ndige Dokumentation lesen möchten, besuchen Sie das FastEdge CLI GitHub-Repository.Vorlagen fĂŒr eine schnelle KonfigurationVordefinierte Vorlagen optimieren die Bereitstellung von FastEdge-Services, indem sie die Konfiguration fĂŒr gĂ€ngige AnwendungsfĂ€lle erheblich vereinfachen. Diese Vorlagen bieten mehrere entscheidende Vorteile fĂŒr Nutzer. Die vordefinierten Optionen fĂŒr Caching, Sicherheit und Lastausgleich erlauben eine schnelle und fehlerfreie Einrichtung, die viel Zeit bei der Bereitstellung spart. Durch standardisierte Konfigurationen fĂŒr alle Bereitstellungen sorgen die Vorlagen fĂŒr Konsistenz im gesamten System, was Fehler reduziert und die StabilitĂ€t erhöht. Obwohl die Vorlagen die genannten standardisierten Vorteile bieten, sind sie flexibel und können problemlos Ihren spezifischen Anforderungen angepasst werden. Indem sie es Ihnen ermöglichen, konsistente Anpassungen in Ihrer gesamten Netzwerkinfrastruktur vorzunehmen, vereinfachen sie sowohl die Skalierungs- als auch die Wartungsprozesse.Verbesserte Verwaltung im Gcore-KundenportalDas aktualisierte Gcore-Kundenportal bietet erweiterte Tools fĂŒr die Verwaltung von FastEdge-Services. So können Partner und WiederverkĂ€ufer Kundeneinstellungen besser kontrollieren und Probleme beheben.Die zentrale Verwaltungsschnittstelle erlaubt es Ihnen, Kundeneinstellungen schnell zu Ă€ndern. Das spart Zeit und vereinfacht die Konfigurationsprozesse fĂŒr Ihren Kundenstamm. Neuen Kunden können Sie benutzerdefinierte Vorlagen zur VerfĂŒgung stellen, die einen einheitlichen und effizienten Prozess möglich machen, der das Onboarding beschleunigt. Die systemeigenen Diagnosen und Auswertungen in Echtzeit helfen Ihnen, Anwendungsprobleme schneller zu beheben und ServiceausfĂ€lle zu minimieren. Außerdem können mit den Verbesserungen die Serviceleistungen fĂŒr mehrere Kunden einfach verwaltet und skaliert und gleichzeitig konsistente Konfigurationen fĂŒr den gesamten Kundenstamm gewĂ€hrleistet werden.Bleiben Sie ĂŒber kĂŒnftige FastEdge-Updates informiertDiese Updates – in Kombination mit FastEdge, dem erweiterten Funktionsumfang unserer serverlosen Edge-Computing-Lösung – machen es einfacher denn je, sichere, skalierbare und leistungsstarke Anwendungen zu implementieren. Freuen Sie sich also auf weitere Verbesserungen im nĂ€chsten Monat!

Absicherung von Webanwendungen und APIs am Edge: die LeistungsfÀhigkeit von Edge WAAP

Da Anwendungsarchitekturen immer verteilter werden, erfordert die Sicherung von Webanwendungen und APIs einen proaktiven, anpassungsfĂ€higen Ansatz, der ĂŒber herkömmliche Web Application Firewalls (WAFs) hinausgeht. Lösungen zum Schutz von Webanwendungen und Anwendungsprogrammierschnittstellen (WAAP) verbessern die Sicherheit, indem sie die Schutzmaßnahmen nĂ€her an die Endbenutzer und potenzielle Bedrohungen heranbringen. Diese strategische Positionierung verringert die Latenzzeit, was zu schnelleren Reaktionszeiten und einem nahtloseren Benutzererlebnis fĂŒhrt. Edge-basiertes WAAP senkt das Risiko von Ausfallzeiten und schĂŒtzt wichtige Ressourcen, indem es Bedrohungen wie DDoS-Angriffe, Bot-Traffic und API-Missbrauch abfĂ€ngt, bevor sie die Kerninfrastruktur erreichen.Edge-basiertes WAAP bietet dynamische Skalierbarkeit und erhöhte Geschwindigkeit und bewĂ€ltigt effizient große Datenmengen und unerwartete Nachfragespitzen. Verteilt auf zahlreiche globale PrĂ€senzpunkte bietet sie robuste, flexible Sicherheit, die sich in Echtzeit an Bedrohungen und Angriffe anpasst und damit perfekt fĂŒr den Schutz von Anwendungen in komplexen Multi-Cloud-Umgebungen geeignet ist.Warum WAAP am Edge?Bei zentralisierten WAAP-Lösungen steht in der Regel eine einzige Sicherheitsanwendung oder Software-Instanz zwischen dem Internet und der Anwendung. Die zentralisierte WAAP ist zwar in bestimmten Szenarien wirksam, hat aber ihre Grenzen, insbesondere wenn es um globale Anwendungen und verteilte Infrastrukturen geht. Zu den Nachteilen gehören:Latenz: Datenverkehr, der ĂŒber einen zentralen Punkt geleitet wird, kann zu Latenz fĂŒhren, was die Anwendungsleistung beeintrĂ€chtigt.Ein einziger Ausfallpunkt: Die Kompromittierung der zentralen Sicherheitsanwendung kann die gesamte Anwendung stark beeintrĂ€chtigen.Skalierbarkeit: Die Skalierung von zentralisierten Lösungen zur BewĂ€ltigung des zunehmenden Datenverkehrs und der sich entwickelnden Bedrohungslandschaft kann eine Herausforderung darstellen.Edge-WAAP hingegen verteilt Sicherheitsfunktionen auf mehrere Punkte im Netzwerk, hĂ€ufig nĂ€her am Edge. Dieser Ansatz bietet mehrere Vorteile: geringere Latenzzeiten, bessere Leistung, höhere Sicherheit und grĂ¶ĂŸere FlexibilitĂ€t. Betrachten wir sie der Reihe nach.Geringere LatenzzeitDurch die Nutzung der LeistungsfĂ€higkeit von CDN, um die Sicherheit in die NĂ€he des Endnutzers zu bringen, reduziert Edge WAAP die Latenzzeit erheblich, da der Datenverkehr nĂ€her an der Quelle verarbeitet wird. Die Latenzzeit steigt mit zunehmender physischer Entfernung zwischen Benutzern und Rechenzentren, so dass die Verringerung dieser Entfernung der SchlĂŒssel zur Verbesserung der Reaktionszeiten ist. Dank des umfangreichen PoP-Netzwerks von Gcore auf der ganzen Welt werden Daten stets in der NĂ€he der Endnutzer verarbeitet. Dies reduziert die DatenĂŒbertragungsdistanz und ermöglicht eine schnellere Reaktion bei der Abwehr von Angriffen. Bei herkömmlichen Systemen bedeutet die Zentralisierung der Sicherheitsfunktionen, dass alle Anfragen (einschließlich potenziell böswilliger Anfragen) ĂŒber eine einzige Stelle laufen, was zu EngpĂ€ssen und einer Verlangsamung des Dienstes fĂŒhren kann. Edge WAAP vermeidet dieses Problem, indem es die Sicherheitsfunktionen nĂ€her am Ursprung der Anfrage bearbeitet.Dies fĂŒhrt zu einer reibungsloseren und schnelleren Interaktion mit den Kunden, selbst bei Spitzenbelastungen. So könnte beispielsweise eine globale E-Commerce-Plattform Edge WAAP nutzen, um ein nahtloses Einkaufserlebnis in verschiedenen Regionen mit minimalen Verzögerungen zu ermöglichen. Durch niedrige Latenzzeiten verbessert Edge WAAP die Gesamtleistung der Anwendung und bietet die nötige Skalierbarkeit, um schwankende Verkehrsanforderungen zu bewĂ€ltigen. Diese Struktur ermöglicht es Unternehmen, reaktionsschnelle und zuverlĂ€ssige Dienste aufrechtzuerhalten, wĂ€hrend sie wachsen, und unterstĂŒtzt sowohl aktuelle als auch zukĂŒnftige Skalierungsanforderungen.Verbesserte SicherheitDie Kombination aus geringer Latenzzeit und globaler Netzverteilung macht Edge WAAP sicherer als Standard-WAAP-Lösungen. Indem der Datenverkehr nĂ€her an seiner Quelle verarbeitet wird, kann Edge-WAAP Bedrohungen in Echtzeit erkennen und abwehren, wodurch die Verzögerung zwischen der Identifikation böswilliger AktivitĂ€ten und der Reaktion minimiert wird. Dieser Ansatz mit niedriger Latenz verringert das Zeitfenster fĂŒr Angreifer und garantiert, dass Bedrohungen wie DDoS-Angriffe, Bot-AktivitĂ€ten und API-Missbrauch neutralisiert werden, bevor sie die Kerninfrastruktur erreichen.DarĂŒber hinaus nutzt Edge WAAP ein global verteiltes Netzwerk, um verdĂ€chtige Datenverkehrsmuster ĂŒber Regionen hinweg zu ĂŒberwachen, was die Transparenz erhöht und die Anwendung von Sicherheitsmaßnahmen auf der Grundlage des geografischen Ursprungs von Bedrohungen ermöglicht. Dieser Ansatz kommt vor allem Unternehmen zugute, die mit sensiblen Daten arbeiten oder Compliance-Anforderungen in mehreren Regionen erfĂŒllen mĂŒssen. Durch die Kombination aus geringer Latenzzeit und umfassender, globaler BedrohungsĂŒberwachung bietet Edge WAAP proaktiven, anpassungsfĂ€higen Schutz, der schnell auf neue Bedrohungen reagieren kann.GrĂ¶ĂŸere FlexibilitĂ€tEdge WAAP ermöglicht Unternehmen die Anpassung an sich entwickelnde Netzwerktopologien und Anwendungsarchitekturen. Durch die Bereitstellung von WAAP am Edge können Sicherheitsfunktionen verteilt und an ein sich Ă€nderndes Netzwerkumfeld angepasst werden, sei es aufgrund von Wachstum, verĂ€nderten Datenverkehrsströmen oder neuen Anforderungen an die Bereitstellung. Dank dieser FlexibilitĂ€t kann WAAP eine Reihe von Architekturen unterstĂŒtzen, von Multi-Cloud- und Hybrid-Umgebungen bis hin zu komplexeren, regionsspezifischen Konfigurationen.Der Edge-basierte Ansatz von Gcore lĂ€sst sich nahtlos in Multi-Cloud- und Hybrid-Umgebungen integrieren und erleichtert Unternehmen die Skalierung und Anpassung von Sicherheitskonfigurationen, wenn sie wachsen. Diese FlexibilitĂ€t ist besonders wertvoll fĂŒr Unternehmen, die in neue Regionen expandieren oder neue Technologien einfĂŒhren, da Edge WAAP sich an ihre individuellen Infrastrukturanforderungen anpassen kann.Garantierte Sicherheit und Leistung mit Edge-basiertem WAAPEdge-basiertes WAAP ist eine leistungsstarke Lösung zur Sicherung moderner Anwendungen und APIs. Gcore WAAP bringt die Sicherheit nĂ€her an die Kunden heran und sorgt so fĂŒr einen schnelleren und effizienteren Schutz dank unseres riesigen globalen Netzwerks von mehr als 180 PrĂ€senzpunkten (PoPs) in mehr als 95 LĂ€ndern .Gcore WAAP arbeitet am Edge, um umfassenden Schutz vor DDoS-Angriffen, böswilligen Bots und API-Schwachstellen zu bieten. Außerdem lĂ€sst sie sich leicht skalieren, um hohe Datenverkehrsanforderungen in verteilten Multi-Cloud-Systemen zu bewĂ€ltigen. Erfahren Sie, wie Gcore WAAP weltweit unĂŒbertroffene Geschwindigkeit bietet und Ihren Anwendungen robuste Sicherheit in einer Umgebung mit geringer Latenz ermöglicht.Erfahren Sie mehr ĂŒber Gcore WAAP

Melden Sie sich fĂŒr unseren Newsletter an

Erhalten Sie die neuesten Branchentrends, exklusive Einblicke und Gcore-Updates direkt in Ihren Posteingang.