Latenz ist ein entscheidender Faktor, der die Netzwerkleistung und das Benutzererlebnis beeinflusst. In diesem Leitfaden werden das Konzept der Latenz, ihre Ursachen und ihre Auswirkungen auf die Anwendungsleistung erläutert. Erfahren Sie mehr über die verschiedenen Arten von Latenz, darunter Netzwerk-, Verarbeitungs- und Warteschlangenlatenz, und wie sie sich auf die Gesamteffizienz des Systems auswirken.
Entdecken Sie Strategien zur Messung und Reduzierung der Latenz, um die Benutzerzufriedenheit und die betriebliche Effizienz zu verbessern. Das Verständnis der Latenz ist für die Optimierung der Netzwerkleistung und die Gewährleistung nahtloser digitaler Interaktionen von entscheidender Bedeutung.
Definition und Messung der Netzwerklatenz
Die Netzwerklatenz kann als die Zeit definiert werden, die benötigt wird, um von einem Punkt in einem Netzwerk zu einem anderen zu gelangen. Die genaue Definition und Messung dieses Begriffs variiert jedoch je nach Kontext.
Im Folgenden finden Sie mehrere Definitionen von Latenz, die in verschiedenen Situationen nützlich sein können. Hier wird ein Client als der Computer definiert, der Daten anfordert, während ein Host als der Computer oder Server definiert wird, der auf die Anfrage antwortet:
- Latenz – Die Zeit, die Daten benötigen, um von einem Punkt in einem Netzwerk zu einem anderen zu gelangen (z. B. von einem Client zum Host).
- Round Trip Time (RTT) – Die Zeit, die eine Antwort benötigt, um nach einer Anfrage an den Host das Client-Gerät zu erreichen. Dies ist nominell doppelt so lang wie die Latenzzeit, da die Daten die doppelte Entfernung zurücklegen müssen wie bei der Messung der Latenzzeit.
- Ping – Misst die Zeit, die eine Echoanforderungsnachricht benötigt, um zu einem Remote-System zu gelangen und mit einer Antwort zurückzukehren, in der Regel in Millisekunden. Pings können auch als Software-Dienstprogramm definiert werden, das für fast jedes Betriebssystem verfügbar ist und zur Messung dieser Statistik verwendet wird. Ähnlich wie RTT bezieht sich Ping speziell auf einen Vorgang, der von einem Ping-Programm ausgeführt wird.
- Lag – Ein informeller Begriff, der sich oft auf die Netzwerklatenz bezieht oder diese einschließt, aber allgemein für jede Systemverzögerung verwendet werden kann, z. B. für die Zeit zwischen einem physischen Tastendruck und dem Erscheinen eines Zeichens auf dem Bildschirm.
Was verursacht Latenz?
Netzwerklatenz wird durch viele Faktoren verursacht, von der Entfernung über das Übertragungsmedium bis hin zur Anzahl der "Hops", die erforderlich sind, um vom Client zum Host und zurück zu gelangen. Auch die Geräte auf der Client- und Host-Seite tragen zur Latenz bei. Berücksichtigen Sie die folgenden Faktoren, die zur Latenz beitragen können:
- Entfernung – Die digitale Übertragung erfolgt mit einer Geschwindigkeit, die für den Menschen unvorstellbar ist, aber sie erfolgt nicht augenblicklich. Wie weiter unten erläutert, verlängert eine Reise um die halbe Welt (und zurück) die Netzwerkantwortzeiten um etwa eine Zehntelsekunde.
- Übertragungsmedium – Landgestützte Glasfaserleitungen sind hinsichtlich der Latenz die schnellsten verfügbaren Verbindungen, während elektrische Kupferverbindungen tendenziell etwas langsamer sind.
- Hops – Wenn Netzwerkdaten von Punkt A nach Punkt B übertragen werden, werden sie in der Regel über verschiedene Übertragungsleitungen (über "Hops") weitergeleitet. Bei jedem Hop verursacht die Switching-Hardware eine kleine Verzögerung, wodurch sich die Latenz erhöht. Unter sonst gleichen Bedingungen führen minimale Hops zu minimaler Latenz.
- Computerhardware – Die Zeit, die der Client und der Host für die Verarbeitung und das Senden von Daten benötigen, sowie die Effizienz der Switching-Geräte, die die Daten an ihren Bestimmungsort leiten, tragen zur Netzwerkverzögerung bei.
Wie sich Latenz auf die Cybersicherheit auswirkt
Cyberangriffe erfolgen mit der Geschwindigkeit des Internets. Wenn Verteidigungsinstrumente nicht schnell genug auf die Systemlatenz reagieren können, haben Bedrohungen mehr Zeit und Gelegenheit, Schaden anzurichten. Im weiteren Sinne beeinflusst die institutionelle Latenz eines Unternehmens (d. h. wie schnell Systeme und Mitarbeiter die richtigen Informationen verarbeiten können) die Aktualität strategischer Entscheidungen und die Minderung von Bedrohungen, die menschliches Eingreifen erfordern. Die Latenz und damit die Reaktionszeit können die Anfälligkeit für Bedrohungen beeinflussen, darunter:
- Ransomware
- Malware
- Distributed-Denial-of-Service (DDoS)
- Angriffe auf bestimmte Anwendungen
- Phishing-Kampagnen
- SQL-Injektionen
- Advanced Persistent Threats (ATPs)
Wie Entfernung und Übertragungsmedium die minimale Latenz beeinflussen (Beispiel)
Bedenken Sie, dass die Lichtgeschwindigkeit im Vakuum etwa 300.000 Kilometer pro Sekunde beträgt. Nach unserem derzeitigen Verständnis der Physik ist dies die Grenze, wie schnell Informationen übertragen werden können. Glasfaserkabel reduzieren die Lichtgeschwindigkeit jedoch auf "nur" etwa 200.000 Kilometer pro Sekunde. Elektrische Kabel sind ebenfalls sehr schnell, aber die Übertragung ist tendenziell langsamer als über Glasfaserleitungen.
Nehmen wir an, wir befinden uns in New York City und möchten Daten von einem Server in Tokio abrufen, der etwa 11.000 Kilometer entfernt ist. Teilt man 11.000 Kilometer (km) durch 200.000 km/s, ergibt sich ein Wert von 0,055 oder 55 ms. Verdoppelt man diese Entfernung, um die Rückreise der Daten zu berücksichtigen, ergibt sich ein Wert von 0,110 s oder 110 ms. 110 ms ist daher die absolut minimale Zeit, die Daten für einen vollständigen Durchlauf benötigen, wobei andere (möglicherweise erhebliche) Verzögerungen aufgrund von Verarbeitung und Umschaltung nicht berücksichtigt sind.
Wenn wir jedoch auf Daten aus Rochester, NY, zugreifen, das etwa 400 km entfernt ist, ergibt 400 km geteilt durch 200.000 km/s nur 2 ms oder 4 ms für die Rückübertragung der Daten. Das ist zwar eine beeindruckende Reduzierung, aber nur ein Teil der Geschichte. Vermittlungsanlagen und andere Faktoren verursachen erhebliche Verzögerungen bei der Übertragung und sollten so weit wie möglich minimiert werden.
Wie können wir die Netzwerklatenz (und die wahrgenommene Latenz) verbessern?
Bedenken Sie, dass die reine Netzwerklatenz, also die Zeit, die Daten benötigen, um von einem Client-Rechner zu einem Host zu gelangen oder umgekehrt, nicht immer in direktem Zusammenhang mit der vom Endbenutzer wahrgenommenen Netzwerkleistung steht. Oft hängt sie von der Anwendung und sogar davon ab, was jemand innerhalb einer Anwendung manipuliert.
Beispielsweise spielt es möglicherweise keine große Rolle, wenn beim passiven Streamen eines Films eine Verzögerung von 500 ms zwischen den Interaktionen auftritt. Man interagiert relativ selten damit. Andererseits wäre eine Verzögerung von einer halben Sekunde bei Videokonferenzen äußerst störend und für Spiele weitgehend unbrauchbar.
Im Folgenden werden mehrere Konzepte vorgestellt, die zur Verbesserung der Latenz beitragen können, sowie Überlegungen dazu, wie sie in verschiedenen Situationen angewendet werden können
- Physische Nähe – Auch wenn man nicht immer in der Nähe seines Kommunikationspartners sein kann, gilt unter sonst gleichen Bedingungen: Je näher, desto besser. Dies minimiert Verzögerungen aufgrund der Entfernung sowie aufgrund von Hops. Für Spiele bedeutet dies vielleicht, dass man hauptsächlich mit Personen in der eigenen Umgebung spielt, und für Echtzeit-Steuerungsanwendungen wählen wir vielleicht einen Cloud-Anbieter in derselben Stadt. Für Serveranwendungen, die mit einer Vielzahl von Clients interagieren müssen, kann dies bedeuten, dass die Datenspeicherung strategisch (und redundant) in verschiedenen Regionen positioniert wird.
- Aktualisierte Hardware – Unabhängig davon, ob Sie als Client oder Host agieren, wirkt sich die Geschwindigkeit, mit der Ihr Gerät auf Eingaben reagieren und Daten an das Netzwerk übertragen kann, auf die Gesamtlatenz des Systems aus. Halten Sie Ihre Geräte, einschließlich Router und Switches, auf dem neuesten Stand, um unnötige Hardware-Latenz zu vermeiden.
- Interne Netzwerkverbindungen – Computergeräte werden in der Regel über ein internes Netzwerk (drahtlos oder kabelgebunden) verbunden, bevor Daten über das offene Internet übertragen werden. Dieses System kann zu einer zusätzlichen Latenz führen und sollte im Hinblick auf Verbesserungsmöglichkeiten berücksichtigt werden. Kabelgebundene (Ethernet-)Verbindungen funktionieren in der Regel besser als drahtlose Verbindungen, was die Latenz betrifft, erfordern jedoch mehr Zeit für die physische Einrichtung und beeinträchtigen die Mobilität.
- Externe Netzwerkverbindung (Internet) – Während Internetgeschwindigkeiten meist in Bezug auf die maximale Bandbreite beworben werden, kann eine bessere Verbindung sowohl die tatsächliche als auch die wahrgenommene Latenz verbessern. Ein Upgrade führt selten zu einer schlechteren Leistung, aber lesen Sie unbedingt das Kleingedruckte und/oder fragen Sie andere technisch versierte Nutzer nach ihren Erfahrungen.
- Gezielte Datenübertragung – Wenn Benutzer zuerst mit bestimmten Datenelementen interagieren (z. B. den obersten Daten auf einer Webseite) und diese am schnellsten geladen werden, kann ein Benutzer dies als reaktionsschneller empfinden, als wenn alle Elemente mit der gleichen Geschwindigkeit geladen werden. In ähnlicher Weise können Datennetzwerke Videokonferenzen und andere zeitkritische Aufgaben gegenüber anderen priorisieren. Die Details der Umsetzung variieren zwar je nach Anwendung stark, aber wir sollten nach Möglichkeit berücksichtigen, wie wir die verfügbaren Ressourcen nutzen.
Latenz | Eine wichtige Herausforderung in unserem vernetzten Zeitalter
Da immer mehr Geräte miteinander verbunden sind, ist eine schnelle, zuverlässige und latenzarme Verbindung von größter Bedeutung.
Was ist sozusagen eine gute Latenzgeschwindigkeit? So niedrig wie möglich. Auch wenn sie nie vollständig beseitigt werden kann, sollte es oberste Priorität haben, die Latenz niedrig zu halten und gleichzeitig auf Probleme zu achten und sogar Verbesserungsmöglichkeiten zu suchen. Dies gilt sowohl auf geschäftlicher als auch auf persönlicher Ebene und ist besonders wichtig für ständig aktive IoT-Geräte.
Entfesseln Sie AI-gestützte Cybersicherheit
Verbessern Sie Ihre Sicherheitslage durch Echtzeit-Erkennung, maschinelle Reaktion und vollständige Transparenz Ihrer gesamten digitalen Umgebung.
Demo anfordernFazit
Die Latenz in Computernetzwerken ist die Zeit, die Daten benötigen, um von einem Ort zum anderen zu gelangen. Eine geringe Latenz, die in der Regel in Millisekunden gemessen wird, ist besser. Sie kann durch Internetverbindungen, Hardware und die physische Nähe zwischen den Knoten beeinflusst werden. Die Latenz kann erhebliche Auswirkungen auf die Cybersicherheit haben, da Verzögerungen zwischen einem Angriff, der Erkennung und Reaktion bedeuten mehr Zeit für böswillige Akteure, um möglicherweise ein System zu beschädigen.
"FAQs
Bandbreite, die Datenmenge, die über einen bestimmten Zeitraum übertragen werden kann und oft in Mbit/s (Megabit pro Sekunde) angegeben wird, ist nicht dasselbe wie Latenz, die normalerweise in ms angegeben wird. Aus Sicht des Benutzers ist jedoch eine Webseite, deren Laden aufgrund der Latenz lange dauert, mit einer Webseite vergleichbar, deren Laden aufgrund einer begrenzten Bandbreite lange dauert.
Eine hohe Latenz bezieht sich auf jede Situation, in der die Latenz eines Computersystems inakzeptabel ist. Dies hängt zwar vom Kontext ab, aber ein niedrigerer Zeitwert (in der Regel in ms) ist besser als ein höherer Wert. Wenn beispielsweise eine Latenz von 50 ms in einer bestimmten Situation akzeptabel oder sogar gut ist, müsste eine Latenz von 200 ms höchstwahrscheinlich verbessert werden.
Eine niedrige Latenz (d. h. ein niedriger Zeitwert, der erforderlich ist, damit Daten von einem Punkt in einem Netzwerk zu einem anderen gelangen) ist in fast allen Netzwerkanwendungen besser als eine hohe Latenz.
