Was ist Latenz? | Wie sich die Latenz verbessern lässt

Die Latenz im Netzwerk ist die Zeit, die ein Datenpaket braucht, um von einem Ort zum anderen zu gelangen. Eine niedrige Latenz gehört zu einer guten Nutzererfahrung unbedingt dazu.

Was ist Latenz?

Latenz ist die Zeit, die Daten benötigen, um von einem Punkt in einem Netzwerk zu einem anderen zu gelangen. Angenommen, Server A in New York sendet ein Datenpaket an Server B in London. Server A sendet das Paket um 04:38:00.000 GMT und Server B empfängt es um 04:38:00.145 GMT. Die Latenz auf diesem Pfad ist die Differenz zwischen diesen beiden Zeiten: 0,145 Sekunden oder 145 Millisekunden.

Meistens wird die Latenz zwischen dem Gerät eines Nutzers (dem „Client“-Gerät) und einem Rechenzentrum gemessen. Diese Messung hilft Entwicklern zu verstehen, wie schnell eine Webseite oder Anwendung für Nutzer geladen wird.

Obwohl sich Daten im Internet mit Lichtgeschwindigkeit bewegen, lässt sich Latenz aufgrund der Auswirkungen von Entfernungen und Verzögerungen, die durch die für die Internet-Infrastruktur verwendeten Geräte verursacht werden, nie ganz ausschließen. Sie kann und sollte jedoch minimiert werden. Hohe Latenz führt zu schlechter Website-Performance, wirkt sich negativ auf die SEO aus und kann Benutzer dazu veranlassen, die Website oder Anwendung ganz zu verlassen.

Höhere Sicherheit
Verteidigung gegen die zehn wichtigsten Angriffstechniken

Wodurch wird Latenz verursacht?

Eine der Hauptursachen für die Latenz im Netzwerk ist die Entfernung, insbesondere die Entfernung zwischen den Client-Geräten, die Anfragen stellen, und den Servern, die auf diese Anfragen reagieren. Wenn eine Website in einem Rechenzentrum in Columbus, Ohio, gehostet wird, erhält sie Anfragen von Nutzern aus Cincinnati (etwa 100 Meilen entfernt) relativ schnell, wahrscheinlich innerhalb von 5–10 Millisekunden. Anfragen von Nutzern aus Los Angeles (ca. 2.200 Meilen entfernt) brauchen dagegen länger, etwa 40–50 Millisekunden.

Ein Anstieg von ein paar Millisekunden mag nicht viel erscheinen, diese Zeitspanne wird aber verstärkt durch die gesamte Hin- und Her-Kommunikation, die für den Verbindungsaufbau zwischen Client und Server erforderlich ist, durch die Gesamtgröße und die Ladezeit der Seite sowie durch eventuelle Probleme mit den Netzwerkgeräten, die die Daten auf ihrem Weg durchlaufen. Die Zeit, die es dauert, bis eine Antwort nach einer Client-Anfrage ein Client-Gerät erreicht, wird als Round Trip Time (RTT) bezeichnet. Die RTT entspricht dem Doppelten der Latenz, da die Daten in beide Richtungen – hin und zurück – übertragen werden müssen.

Daten, die im Internet unterwegs sind, müssen in der Regel nicht nur ein, sondern mehrere Netzwerke durchqueren. Je mehr Netzwerke eine HTTP-Antwort durchlaufen muss, desto mehr Gelegenheiten für Verzögerungen gibt es. Beim Übergang der Datenpakete von einem Netzwerk zum anderen durchlaufen sie beispielsweise Internet Exchange Points (IXPs). Dort müssen Router die Datenpakete verarbeiten und weiterleiten, und manchmal müssen die Router sie in kleinere Pakete aufteilen, was alles ein paar Millisekunden mehr RTT bedeutet.

Latenz, Durchsatz und Bandbreite von Netzwerken

Latenz, Bandbreite und Durchsatz hängen zusammen, bezeichnen aber unterschiedliche Dinge. Die Bandbreite ist die maximale Datenmenge, die zu einem bestimmten Zeitpunkt durch das Netzwerk fließen kann. Der Durchsatz ist die durchschnittliche Datenmenge, die über einen bestimmten Zeitraum tatsächlich fließt. Durchsatz ist nicht unbedingt gleichbedeutend mit Bandbreite, da er durch Latenz und andere Faktoren beeinträchtigt wird. Die Latenz ist ein Maß der Zeit und nicht ein Maß für die Menge der Daten, die mit der Zeit heruntergeladen werden.

Whitepaper
Optimieren Sie die Web-Performance Lastverteilung Best Practices

Wie kann Latenz reduziert werden?

Die Verwendung eines CDN (Content Delivery Network) ist ein wichtiger Schritt zur Verringerung der Latenz. Ein CDN speichert statische Inhalte im Cache und stellt sie den Nutzern zur Verfügung. (Mit dem Cloudflare-CDN ist es möglich, auch dynamische Inhalte mit Cloudflare Workers zwischenzuspeichern). CDN-Server sind an mehreren Standorten verteilt, sodass die Inhalte näher an den Endbenutzern gespeichert werden und nicht so weit reisen müssen, um sie zu erreichen. Das bedeutet, dass das Laden einer Webseite weniger Zeit in Anspruch nimmt, wodurch Geschwindigkeit und Performance der Website verbessert werden.

Neben der Latenz können auch andere Faktoren die Performance beeinträchtigen. Webentwickler können die Anzahl der Ressourcen minimieren, die das Rendering blockieren (z. B. dadurch, dass JavaScript zuletzt geladen wird), Bilder für schnelleres Laden optimieren und die Dateigrößen nach Möglichkeit reduzieren. Code-Minifikation ist eine Möglichkeit, die Größe von JavaScript- und CSS-Dateien zu reduzieren.

Es ist möglich, die wahrgenommene Performance einer Seite zu erhöhen, indem man bestimmte Assets strategisch zuerst lädt. Eine Webseite kann so konfiguriert werden, dass zuerst der Bereich „above the fold“ geladen wird, damit Benutzer schon mit der Seite interagieren können, bevor sie fertig geladen ist („above the fold“ bezieht sich auf den Bereich in einem Browserfenster, der sichtbar ist, bevor der Benutzer herunterscrollt; vergleichbar mit „über dem Falz“ bei einer Zeitung). Webseiten können auch so vorgehen, dass Assets nur dann geladen werden, wenn sie benötigt werden. Dazu gibt es eine Technik, die als „Lazy Loading“ bekannt ist. Diese Ansätze verbessern die Netzwerklatenz nicht wirklich, sie verbessern aber die Wahrnehmung der Seitengeschwindigkeit durch den Benutzer.

Wie kann die Latenz benutzerseitig verbessert werden?

Manchmal wird Netzwerklatenz (schlechte Netzwerk-Performance) durch Probleme auf der Benutzerseite verursacht, nicht auf der Serverseite. Als Verbraucher hat man immer die Möglichkeit, mehr Bandbreite zu kaufen, wenn schlechte Netzwerk-Performance ein ständiges Problem darstellt. Bandbreite allein ist aber keine Garantie für die Performance einer Website. Der Wechsel zu Ethernet anstelle von WLAN führt zu einer beständigeren Internetverbindung und verbessert in der Regel die Internetgeschwindigkeit. Benutzer sollten auch sicherstellen, dass ihre Internet-Ausrüstung auf dem neuesten Stand ist, indem sie regelmäßig Firmware-Updates installieren und die Ausrüstung bei Bedarf ganz austauschen.