Latency is een cruciale factor die van invloed is op de netwerkprestaties en de gebruikerservaring. In deze gids wordt het concept van latency, de oorzaken ervan en de impact ervan op de prestaties van applicaties onderzocht. Lees meer over de verschillende soorten latentie, waaronder netwerk-, verwerkings- en wachtrijlatentie, en hoe deze de algehele systeemefficiëntie beïnvloeden.
Ontdek strategieën voor het meten en verminderen van latentie om de gebruikerstevredenheid en operationele efficiëntie te verbeteren. Inzicht in latentie is essentieel voor het optimaliseren van netwerkprestaties en het waarborgen van naadloze digitale interacties.
Definitie en meting van netwerklatentie
Netwerklatentie kan worden omschreven als de tijd die nodig is om van het ene punt in een netwerk naar het andere te gaan. De details van hoe deze term precies wordt gedefinieerd en hoe deze wordt gemeten, variëren echter afhankelijk van de context.
Hieronder staan verschillende definities van latentie die in verschillende situaties nuttig kunnen zijn. Hier wordt een client gedefinieerd als de computer die gegevens opvraagt, terwijl een host wordt gedefinieerd als de computer of server die op het verzoek reageert:
- Latency – De tijd die gegevens nodig hebben om van het ene punt in een netwerk naar het andere te gaan (bijvoorbeeld van een client naar de host)
- Round Trip Time (RTT) – De tijd die een antwoord nodig heeft om het clientapparaat te bereiken na een verzoek aan de host. Dit is nominaal twee keer de latentie, omdat gegevens twee keer de afstand moeten afleggen als bij het meten van de latentie.
- Ping – Meet de tijd die een echo-verzoek nodig heeft om naar een extern systeem te reizen en terug te keren met een antwoord, meestal in ms. Pings kunnen ook worden gedefinieerd als een softwareprogramma – beschikbaar voor bijna elk besturingssysteem – dat wordt gebruikt om deze statistiek te meten. Hoewel ping vergelijkbaar is met RTT, verwijst het specifiek naar een bewerking die wordt uitgevoerd door een pingprogramma.
- Lag – Een informele term die vaak betrekking heeft op, of deel uitmaakt van, netwerklatentie, maar die in brede zin kan worden gebruikt voor elke systeemvertraging, zoals de tijd die verstrijkt tussen het fysiek indrukken van een toets en het verschijnen van een teken op het scherm.
Wat veroorzaakt latentie?
Netwerklatentie wordt veroorzaakt door vele factoren, van afstand tot transmissiemedium tot het aantal 'hops' dat nodig is om van client naar host en terug te gaan. Apparatuur aan de client- en hostzijde draagt ook bij aan latentie. Houd rekening met de volgende factoren die kunnen bijdragen aan latentie:
- Afstand – Digitale transmissie vindt plaats met een snelheid die voor de mens onvoorstelbaar is, maar het gebeurt niet onmiddellijk. Zoals hieronder wordt toegelicht, voegt een reis halverwege de wereld (en terug) ongeveer een tiende van een seconde toe aan de responstijden van het netwerk.
- Transmissiemedium – Glasvezelkabels op het land zijn de snelste verbindingen die beschikbaar zijn in termen van latentie, terwijl koperen elektrische verbindingen doorgaans iets langzamer zijn.
- Hops – Wanneer netwerkgegevens van punt A naar B worden verzonden, worden ze over het algemeen via verschillende transmissielijnen gerouteerd (via "hops"). Elke keer dat er een hop plaatsvindt, zorgt de schakelhardware voor een kleine vertraging, waardoor de latentie toeneemt. Als alle andere factoren gelijk blijven, zorgen minimale hops voor minimale latentie.
- Computerhardware – De tijd die de client en host nodig hebben om gegevens te verwerken en te verzenden, plus de efficiëntie van schakelapparatuur die wordt gebruikt om gegevens naar hun bestemming te leiden, dragen bij aan netwerkvertraging.
Hoe latentie cyberbeveiliging beïnvloedt
Cyberaanvallen vinden plaats met de snelheid van het internet. Als defensieve tools niet snel genoeg kunnen reageren op de latentie van het systeem, hebben bedreigingen meer tijd en mogelijkheden om schade aan te richten. In bredere zin beïnvloedt de institutionele latentie van een onderneming (d.w.z. hoe snel systemen en personeel de juiste informatie kunnen verwerken) de tijdigheid van strategische beslissingen en het beperken van bedreigingen waarvoor menselijke tussenkomst nodig is. Latentie, en dus reactietijd, kan van invloed zijn op de kwetsbaarheid voor bedreigingen, waaronder:
- Ransomware
- Malware
- Distributed-denial-of-service (DDoS)
- Aanvallen op specifieke applicaties
- Phishingcampagnes
- SQL-injecties
- Geavanceerde persistente bedreigingen (ATP's)
Hoe afstand en transmissiemedium de minimale latentie beïnvloeden (voorbeeld)
Bedenk dat de snelheid van het licht in een vacuüm ongeveer 300.000 kilometer per seconde bedraagt. Op basis van onze huidige kennis van de natuurkunde is dit de maximale snelheid waarmee informatie kan worden overgedragen. Glasvezelkabels verminderen de snelheid van het licht echter tot 'slechts' ongeveer 200.000 kilometer per seconde. Elektrische kabels zijn ook erg snel, maar de transmissie is doorgaans langzamer dan via glasvezelkabels.
Stel dat we ons in New York City bevinden en gegevens willen ophalen van een server in Tokio, op ongeveer 11.000 kilometer afstand. Als we 11.000 kilometer (km) delen door 200.000 km/s, komen we uit op 0,055, ofwel 55 ms. Als we deze afstand verdubbelen om rekening te houden met de terugreis van de gegevens, komen we uit op 0,110 s of 110 ms. 110 ms is dus de absolute minimumtijd die gegevens nodig hebben om een volledige lus te maken, waarbij geen rekening wordt gehouden met andere (mogelijk aanzienlijke) vertragingen als gevolg van verwerking en schakelen.
Als we echter toegang hebben tot gegevens uit Rochester, NY, op ongeveer 400 km afstand, is 400 km gedeeld door 200.000 km/s slechts 2 ms, of 4 ms voor de terugkeer van gegevens. Hoewel dit een indrukwekkende vermindering is, is dit slechts een deel van het verhaal. Schakelapparatuur en andere factoren zorgen voor een aanzienlijke vertraging van de transmissie en moeten zoveel mogelijk worden beperkt.
Hoe kunnen we de netwerklatentie (en de waargenomen latentie) verbeteren?
Bedenk dat strikte netwerklatentie, de tijd die gegevens nodig hebben om van een clientcomputer naar een host te gaan, of vice versa, niet altijd direct verband houdt met de waargenomen netwerkprestaties voor de eindgebruiker. Vaak hangt het af van de toepassing en zelfs van wat iemand binnen een toepassing doet.
Het maakt bijvoorbeeld weinig uit als er een vertraging van 500 ms is tussen interacties bij het passief streamen van een film. Men heeft er relatief weinig interactie mee. Aan de andere kant zou een vertraging van een halve seconde erg vervelend zijn voor videoconferenties en grotendeels onbruikbaar voor gaming.
Hieronder staan verschillende concepten die kunnen worden gebruikt om de latentie te verbeteren, met ideeën over hoe ze in verschillende situaties kunnen worden toegepast
- Fysieke nabijheid – Hoewel je niet altijd dicht bij je gesprekspartner kunt zijn, geldt dat hoe dichterbij, hoe beter. Dit minimaliseert vertragingen als gevolg van afstand en hops. Voor gaming betekent dit misschien dat je vooral met mensen in je omgeving speelt, en voor realtime besturingstoepassingen kiezen we misschien voor een cloudprovider in dezelfde stad. Voor servertoepassingen, die met een breed scala aan clients moeten communiceren, kan dit betekenen dat gegevensopslag strategisch (en redundant) in verschillende regio's wordt geplaatst.
- Bijgewerkte hardware – Of u nu als client of als host optreedt, de snelheid waarmee uw apparaat kan reageren op invoer en gegevens naar het netwerk kan pushen, is van invloed op de algehele systeemlatentie. Houd uw apparaten, inclusief routers en switches, up-to-date om onnodige hardwarelatentie te voorkomen.
- Interne netwerkverbindingen – Computerapparaten worden doorgaans via een intern netwerk (draadloos of bekabeld) verbonden voordat ze gegevens via het open internet verzenden. Dit systeem kan latentie aan het systeem toevoegen en moet worden overwogen voor verbetering. Doorgaans werken bekabelde (Ethernet) verbindingen beter dan draadloze verbindingen wat betreft latentie, maar ze vereisen meer fysieke installatietijd en beperken de draagbaarheid.
- Externe netwerkverbinding (internet) – Hoewel internetsnelheden grotendeels worden geadverteerd in termen van maximale bandbreedte, kan een betere verbinding zowel de werkelijke als de waargenomen latentie verbeteren. Een upgrade leidt zelden tot slechtere prestaties, maar lees wel de kleine lettertjes en/of vraag andere technisch onderlegde gebruikers naar hun ervaringen.
- Gerichte gegevenslevering – Wanneer gebruikers eerst met bepaalde gegevenselementen werken (bijvoorbeeld de bovenste gegevens op een webpagina) en deze het snelst worden geladen, kan een gebruiker dit als responsiever ervaren dan wanneer alle elementen met dezelfde snelheid worden geladen. Op dezelfde manier kunnen datanetwerken ervoor kiezen om videoconferenties en andere tijdgevoelige taken voorrang te geven boven andere taken. Hoewel de details van de implementatie sterk zullen variëren afhankelijk van de toepassing, moet waar mogelijk worden nagedacht over hoe we de beschikbare middelen gebruiken.
Latency | Een belangrijke uitdaging in ons verbonden tijdperk
Naarmate steeds meer apparaten worden verbonden, is het van het grootste belang om te beschikken over een snelle, betrouwbare verbinding met een lage latentie.
Wat is een goede latentiesnelheid? Zo laag mogelijk. Hoewel latentie nooit volledig kan worden geëlimineerd, is het van het grootste belang om de latentie laag te houden en tegelijkertijd te controleren op problemen en zelfs op mogelijkheden voor verbetering. Dit geldt zowel op zakelijk als op persoonlijk vlak en is vooral belangrijk voor IoT-apparaten die altijd aan staan.
Ontketen AI-aangedreven cyberbeveiliging
Verhoog uw beveiliging met realtime detectie, reactiesnelheid en volledig overzicht van uw gehele digitale omgeving.
Vraag een demo aanConclusie
Latency in computernetwerken is de tijd die gegevens nodig hebben om van de ene plaats naar de andere te reizen. Een lage latency, meestal gemeten in milliseconden, is beter. Deze kan worden beïnvloed door internetverbindingen, hardware en de fysieke afstand tussen knooppunten. Latency kan een aanzienlijk effect hebben op cyberbeveiliging, aangezien vertragingen tussen een aanval, detectie, en reactie betekent dat kwaadwillende actoren meer tijd hebben om een systeem mogelijk te beschadigen.
"FAQs
Bandbreedte, de hoeveelheid gegevens die in een bepaalde periode kan worden verzonden, vaak uitgedrukt in Mbps (megabits per seconde), is niet hetzelfde als latentie, die doorgaans wordt uitgedrukt in ms. Vanuit het oogpunt van de gebruiker is een webpagina die vanwege latentie langzaam laadt echter vergelijkbaar met het effect van een webpagina die langzaam laadt vanwege beperkte bandbreedte.
Hoge latentie verwijst naar elke situatie waarin de latentie van een computersysteem onaanvaardbaar is. Hoewel dit afhankelijk is van de context, is een lagere tijdswaarde (meestal in ms) beter dan een hogere waarde. Als bijvoorbeeld een latentie van 50 ms in een bepaalde situatie acceptabel of zelfs goed is, moet een latentie van 200 ms waarschijnlijk worden verbeterd.
Een lage latentie (d.w.z. een lage tijdswaarde die nodig is om gegevens van het ene punt in een netwerk naar het andere te verzenden) is in bijna alle netwerktoepassingen beter dan een hoge latentie.

