Was ist Latenz und wie kann sie reduziert werden

Es gibt viele Faktoren, die die Geschwindigkeit einer Web-Ressource beeinflussen. Eine ist die Netzwerklatenz. Schauen wir zunächst, was Latenz ist, wie sie Anwendungsleistung beeinflusst und wie sie reduziert werden kann.

Was ist Latenz?

Einfach ausgedrückt ist Latenz jede Verzögerung bei der Ausführung bestimmter Vorgänge. Es gibt verschiedene Arten von Latenzen: Netzwerklatenzen, Audiolatenzen, Latenz bei der Übertragung von Videos bei Livestreams, auf der Speicherebene usw.

Grundsätzlich ist jede Art von Latenz die Folge einer begrenzten Geschwindigkeit, mit der ein Signal übertragen werden kann.

Die meisten — aber nicht alle — Latenzarten werden in Millisekunden gemessen. Bei der Kommunikation zwischen CPU und SSD werden beispielsweise Mikrosekunden zur Messung der Latenzzeit verwendet.

Dieser Artikel konzentriert sich auf die Netzwerklatenz, nachstehend auch nur als Latenz bezeichnet.

Die Netzwerklatenz (Reaktionszeit) ist die Verzögerung, die entsteht, wenn Informationen über das Netzwerk von Punkt A nach Punkt B übermittelt werden.

Stellen Sie sich eine Webanwendung vor, die in einem Rechenzentrum in Paris bereitgestellt wird. Diese Anwendung wird von einem Anwender in Rom aufgerufen. Der Browser schickt 9:22:03.000 Uhr CET eine Anfrage an den Server. Der Server empfängt die Anfrage 9:22:03.174 Uhr CET (UTC+1). Die Verzögerung der Anfrage ist 174 ms.

Das ist ein vereinfachtes Beispiel. Bei der Messung der Latenzzeit wird das Datenvolumen nicht berücksichtigt. Es dauert länger, 1.000 MB Daten zu übertragen als 1 KB. Die Datenübertragungsrate kann jedoch dieselbe sein, und die Latenzzeit ist in diesem Fall ebenfalls dieselbe.

Das Konzept der Netzwerklatenz wird vor allem bei der Betrachtung der Interaktionen zwischen Benutzergeräten und einem Rechenzentrum verwendet. Je geringer die Latenz ist, desto schneller können die Nutzer auf die im Rechenzentrum bereitgestellte Anwendung zugreifen.

Es ist nicht möglich, Daten ohne Verzögerung zu übertragen, da sich nichts schneller als mit Lichtgeschwindigkeit fortbewegen kann.

Wovon hängt die Netzwerklatenz ab?

Der wesentliche Faktor, der die Latenzzeit beeinflusst, ist die Entfernung. Je näher die Informationsquelle an den Nutzern ist, desto schneller werden die Daten übertragen.

Eine Anfrage von Rom nach Neapel (knapp unter 200 km) dauert zum Beispiel etwa 10 ms. Die gleiche Anfrage, die unter den gleichen Bedingungen von Rom nach Miami (knapp über 8.000 km) gesendet wird, dauert etwa 120 ms.

Es gibt noch weitere Faktoren, die sich auf die Netzwerklatenz auswirken.

Netzwerkqualität. Bei Geschwindigkeiten über 10 Gbit/s weisen Kupferkabel und -verbindungen selbst über kurze Entfernungen von nur wenigen Metern eine zu starke Signaldämpfung auf. Mit zunehmender Schnittstellengeschwindigkeit werden überwiegend Glasfasernetzkabel verwendet.

Route. Daten im Internet werden gewöhnlich über mehr als ein Netz übertragen. Informationen werden über mehrere Netzwerke — autonome Systeme — weitergeleitet. An den Schnittstellen zwischen den autonomen Systemen verarbeiten die Router die Daten und senden sie an das gewünschte Ziel. Auch die Datenverarbeitung braucht Zeit. Je mehr Netzwerke und Schnittstellen sich auf dem Weg des Pakets liegen, desto länger dauert es, bis es vollständig übertragen wird.

Router-Leistung. Je schneller die Router Daten verarbeiten, desto schneller erreichen Informationen auch ihr Ziel.

In einigen Origin umfasst das Konzept der Netzwerklatenz auch die Zeit, die der Server benötigt, um eine Anfrage zu bearbeiten und eine Antwort zu senden. In diesem Fall wirken sich auch die Konfiguration des Servers, dessen Kapazität und Betriebsgeschwindigkeit auf die Latenzzeit aus. Wir bleiben jedoch bei der oben genannten Definition, die nur die Zeit umfasst, die benötigt wird, um das Signal an das Ziel zu senden.

Was wird von der Netzwerklatenz beeinflusst?

Die Latenz wirkt sich auf andere Parameter der Web-Ressourcenleistung aus, z.B. auf RTT und TTFB.

RTT (Round-Trip Time) ist die Zeit, die die versendeten Daten benötigen, um ihr Ziel zu erreichen, plus die Zeit, um den Empfang der Daten zu bestätigen. Einfach ausgedrückt ist es die Zeit, die die Daten brauchen, um hin- und herzuwandern.

TTFB (Time to First Byte) ist die Zeit vom Absenden der Anfrage an den Server bis zum Empfang des ersten Bytes an Informationen vom Server. Im Gegensatz zur RTT enthält dieser Wert nicht nur die Zeit für die Übermittlung der Daten, sondern auch die Zeit, die der Server für die Verarbeitung der Daten benötigt.

Diese Indikatoren wirken sich wiederum auf die Wahrnehmung der Geschwindigkeit und das Nutzererlebnis insgesamt aus. Je schneller eine Web-Ressource arbeitet, desto aktiver wird sie von den Nutzern verwendet. Andererseits kann sich eine langsame Anwendung negativ auf das Online-Geschäft auswirken.

Was wird als optimale Latenzzeit angesehen und wie kann sie gemessen werden?

Der beste Weg, die Latenzzeit Ihrer Ressource zu bestimmen, ist die Messung anderer Geschwindigkeitsanzeigen, zum Beispiel der RTT. Dieser Parameter kommt der Latenzzeit am nächsten. In vielen Fällen ist sie gleich dem doppelten Latenzwert (wenn die Zeit zum Ziel die gleiche ist, wie bei dem Rückweg).

Mit dem Ping-Befehl ist es sehr einfach, diese zu messen. Öffnen Sie eine Eingabeaufforderung, geben Sie „ping“ ein, und geben Sie die IP Adresse oder die Webadresse der Ressource ein.

Pingen wir als Beispiel www.google.com.

C:\Users\username>ping www.google.com
Exchange of packages with www.google.com [216.58.207.228] with 32 bytes of data
Response from 216.58.207.228: number of bytes=32 time=24ms TTL=16
Response from 216.58.207.228: number of bytes=32 time=24ms TTL=16
Response from 216.58.207.228: number of bytes=32 time=24ms TTL=16
Response from 216.58.207.228: number of bytes=32 time=24ms TTL=16

Der Zeitparameter ist das RTT. In unserem Beispiel sind es 24 ms.

Der optimale RTT Wert hängt von den Besonderheiten Ihres Projekts ab. Im Durchschnitt halten die meisten Experten weniger als 100 ms für einen guten Indikator.

RTT WertWas der Wert bedeutet
<100 msSehr gut, keine Verbesserungen notwendig
100–200 msAkzeptabel, kann aber verbessert werden
>200 msNicht akzeptabel, Verbesserungen sind notwendig

Wie reduziert man die Latenz?

Hier sind ein paar grundsätzliche Hinweise:

  • Verringern Sie die Distanz zwischen der Datenquelle und den Anwendern. Versuchen Sie, die Server so nah wie möglich am Kunden zu installieren.
  • Verbesserte Netzwerkverbindung. Je mehr Peer-to-Peer-Partner (Netze, mit denen Sie den Traffic austauschen können) und Routenoptionen Sie haben, desto besser kann die Route aufgebaut werden und desto schneller werden die Daten übertragen.
  • Verbessertes Traffic-Balancing. Durch die Aufteilung großer Datenmengen auf verschiedene Routen lässt sich die Netzbelastung verringern. Auf diese Weise werden die Informationen schneller übertragen.

Ein CDN — Content-Delivery-Netzwerk mit vielen miteinander verbundenen Servern, die Informationen der Origin sammeln, zwischenspeichern und auf dem kürzesten Weg zustellen — hilft beim ersten und zweiten Punkt. Ein globales Netzwerk mit guter Konnektivität hilft dabei, die Latenzzeiten deutlich zu verringern.

Denken Sie jedoch daran, dass die Latenzzeit nur ein Faktor ist, der die Wahrnehmung der Anwendungsleistung durch die Benutzer beeinflusst. In manchen Fällen ist die Latenzzeit sehr gering, aber die Webseite lädt trotzdem langsam. Dies geschieht beispielsweise, wenn der Server bei der Bearbeitung von Anfragen langsam ist.

Um die Anwendung deutlich zu beschleunigen, ist in der Regel eine komplexe Optimierung erforderlich. Die wichtigsten Tipps zur Beschleunigung finden Sie in dem Artikel „Wie ist die Geschwindigkeit einer Web-Ressource zu erhöhen“.

Zusammenfassung

  1. Die Latenzzeit ist die Zeit, die benötigt wird, um Daten über das Netzwerk von einem Punkt zum anderen zu übertragen.
  2. Der wichtigste Faktor ist hierbei die Entfernung. Außerdem wird sie von der Netzqualität und der Strecke selbst (Anzahl der Netzwerke und Traffic-Exchange-Punkte) beeinflusst.
  3. Die Latenz wirkt sich auf andere Parameter der Leistung der Web-Ressourcen aus, z.B. auf RTT und TTFB. Diese wirken sich wiederum auf die Konversionsraten und die Position in den Suchmaschinen aus.
  4. Der einfachste Weg, die Latenz einer Ressource zu bestimmen, ist die Messung der RTT. Dazu kann der Befehl „ping“ verwendet werden. Optimal ist eine RTT von weniger als 100 ms.
  5. Die wirksamste Methode zur Verringerung der Latenzzeit ist die Einrichtung eines CDN. Mit dem Content-Delivery-Netzwerk wird die Entfernung zwischen dem Client und der Datenbank verringert und das Routing verbessert. So werden die Informationen schneller übertragen.

Gcore CDN bietet eine hervorragende Datenübertragungsgeschwindigkeit. Wir liefern umfangreiche Daten mit minimalen Verzögerungen in die ganze Welt.

Wir stellen einen kostenlosen Tarifplan zu Verfügung. Testen Sie unser Netzwerk und überzeugen Sie sich davon, wie schnell Ihre Ressourcen werden können.

Mehr über Gcore CDN

Melden Sie sich an, um die neuesten Updates, Nachrichten und Funktionen zu erhalten.

Wir respektieren Ihren Posteingang und bemühen uns, Spam zu vermeiden