La latence est un facteur critique qui affecte les performances du réseau et l'expérience utilisateur. Ce guide explore le concept de latence, ses causes et son impact sur les performances des applications. Découvrez les différents types de latence, notamment la latence du réseau, la latence de traitement et la latence de mise en file d'attente, ainsi que leur influence sur l'efficacité globale du système.
Découvrez des stratégies pour mesurer et réduire la latence afin d'améliorer la satisfaction des utilisateurs et l'efficacité opérationnelle. Il est essentiel de comprendre la latence pour optimiser les performances du réseau et garantir des interactions numériques fluides.
Définition et mesure de la latence réseau
La latence réseau peut être définie comme le temps nécessaire pour passer d'un point à un autre d'un réseau. Cependant, les détails de la définition exacte de ce terme et de sa mesure varient en fonction du contexte.
Vous trouverez ci-dessous plusieurs définitions de la latence qui peuvent être utiles dans différentes situations. Ici, un client est défini comme l'ordinateur qui demande des données, tandis qu'un hôte est défini comme l'ordinateur ou le serveur qui répond à la demande :
- Latence – Temps nécessaire aux données pour passer d'un point à un autre d'un réseau (par exemple, d'un client à l'hôte)
- Temps aller-retour (RTT) – Temps nécessaire à une réponse pour atteindre le périphérique client après une requête adressée à l'hôte. Ce temps est en principe deux fois plus long que le temps de latence, car les données doivent parcourir une distance deux fois plus grande que lors de la mesure de la latence.
- Ping – Mesure le temps nécessaire à un message de demande d'écho pour atteindre un système distant et revenir avec une réponse, généralement en ms. Les pings peuvent également être définis comme un utilitaire logiciel, disponible pour presque tous les systèmes d'exploitation, utilisé pour mesurer cette statistique. Bien que similaire au RTT, le ping fait spécifiquement référence à une opération effectuée par un programme ping.
- Lag – Terme informel qui fait souvent référence à la latence du réseau ou l'inclut, mais qui peut être utilisé de manière générale pour désigner tout retard du système, tel que le temps qui s'écoule entre la frappe physique d'une touche et l'apparition d'un caractère à l'écran.
Quelles sont les causes de la latence ?
La latence réseau est causée par de nombreux facteurs, allant de la distance au support de transmission, en passant par le nombre de " sauts " nécessaires pour aller du client à l'hôte et revenir. Les équipements côté client et côté hôte ajoutent également de la latence. Voici quelques facteurs qui peuvent contribuer à la latence :
- Distance – La transmission numérique s'effectue à une vitesse inconcevable pour l'expérience humaine, mais elle n'est pas instantanée. Comme expliqué ci-dessous, un trajet aller-retour autour du monde ajoute environ un dixième de seconde au temps de réponse du réseau.
- Moyen de transmission – Les lignes à fibre optique terrestres sont les connexions les plus rapides en termes de latence, tandis que les connexions électriques en cuivre ont tendance à être un peu plus lentes.
- Sauts – Lorsque les données réseau sont transmises d'un point A à un point B, elles sont généralement acheminées (via des " sauts ") par différentes lignes de transmission. Chaque fois qu'un saut se produit, le matériel de commutation ajoute un léger retard, ce qui augmente la latence. Toutes choses étant égales par ailleurs, un nombre minimal de sauts produit une latence minimale.
- Matériel informatique – Le temps nécessaire au client et à l'hôte pour traiter et envoyer les données, ainsi que l'efficacité des dispositifs de commutation utilisés pour acheminer les données vers leur destination, contribuent au décalage du réseau.
Comment la latence affecte la cybersécurité
Les cyberattaques se produisent à la vitesse d'Internet. Si les outils de défense ne peuvent pas réagir assez rapidement en raison de la latence du système, les menaces ont alors plus de temps et d'occasions de causer des dommages. Dans un sens plus large, la latence institutionnelle d'une entreprise (c'est-à-dire la rapidité avec laquelle les systèmes et le personnel peuvent traiter les informations appropriées) affecte la rapidité des décisions stratégiques et l'atténuation des menaces nécessitant une intervention humaine. La latence, et donc le temps de réaction, peuvent affecter la vulnérabilité aux menaces, notamment :
- Ransomware
- Malware
- Déni de service distribué (DDoS)
- Attaques contre des applications spécifiques
- Campagnes de phishing
- Injections SQL
- Menaces persistantes avancées (ATP)
Comment la distance et le moyen de transmission affectent la latence minimale (exemple)
Considérons que la vitesse de la lumière dans le vide est d'environ 300 000 kilomètres par seconde. D'après nos connaissances actuelles en physique, il s'agit de la vitesse maximale à laquelle l'information peut se déplacer. Les câbles à fibre optique réduisent toutefois la vitesse de la lumière à " seulement " environ 200 000 kilomètres par seconde. Les câbles électriques sont également très rapides, mais la transmission a tendance à être plus lente que via les lignes à fibre optique.
Imaginons que nous soyons à New York et que nous souhaitions obtenir des données provenant d'un serveur situé à Tokyo, à environ 11 000 kilomètres de distance. En divisant 11 000 kilomètres (km) par 200 000 km/s, on obtient 0,055, soit 55 ms. En doublant cette distance pour tenir compte du trajet de retour des données, on obtient 0,110 s, soit 110 ms. 110 ms est donc le temps minimum absolu nécessaire pour que les données effectuent un cycle complet, sans tenir compte des autres retards (potentiellement importants) dus au traitement et à la commutation.
Si, toutefois, nous accédons à des données depuis Rochester, dans l'État de New York, à environ 400 km de distance, 400 km divisés par 200 000 km/s ne représentent que 2 ms, soit 4 ms pour le retour des données. Bien qu'il s'agisse d'une réduction impressionnante, ce n'est qu'une partie de l'histoire. Les équipements de commutation et d'autres facteurs ajoutent un temps de latence important à la transmission et doivent être réduits autant que possible.
Comment pouvons-nous améliorer la latence du réseau (et la latence perçue) ?
Il faut savoir que la latence réseau stricte, c'est-à-dire le temps nécessaire aux données pour atteindre un hôte à partir d'un ordinateur client, ou vice versa, n'est pas toujours directement liée aux performances réseau perçues par l'utilisateur final. Elle dépend souvent de l'application et même de ce que l'utilisateur manipule dans une application.
Par exemple, un délai de 500 ms entre les interactions peut avoir peu d'importance lors du streaming passif d'un film. On interagit avec lui de manière relativement peu fréquente. En revanche, un délai d'une demi-seconde serait extrêmement gênant pour les vidéoconférences et rendrait les jeux vidéo largement inutilisables.
Vous trouverez ci-dessous plusieurs concepts qui peuvent être utilisés pour aider à améliorer la latence, avec des réflexions sur la manière dont ils s'appliquent dans différentes situations
- Proximité physique – Même si vous ne pouvez pas toujours être proche de votre interlocuteur, toutes choses étant égales par ailleurs, plus vous êtes proche, mieux c'est. Cela minimise les retards dus à la distance, ainsi que les sauts. Pour les jeux, cela signifie peut-être jouer principalement avec des personnes situées dans votre région, et pour les applications de contrôle en temps réel, choisir un fournisseur de cloud situé dans la même ville. Pour les applications serveur, qui doivent interagir avec un large éventail de clients, cela peut signifier positionner stratégiquement (et de manière redondante) le stockage des données dans différentes régions.
- Matériel mis à jour – Que vous agissiez en tant que client ou hôte, la vitesse à laquelle votre appareil peut répondre aux entrées et envoyer des données au réseau aura une incidence sur la latence globale du système. Maintenez vos appareils à jour, y compris les routeurs et les commutateurs, afin d'éviter toute latence matérielle inutile.
- Connexions réseau internes – Les appareils informatiques sont généralement connectés via un réseau interne (sans fil ou câblé) avant de transmettre des données sur l'Internet ouvert. Ce système peut ajouter de la latence au système et doit être pris en compte pour être amélioré. En général, les connexions câblées (Ethernet) fonctionnent mieux que les connexions sans fil en termes de latence, mais elles nécessitent plus de temps d'installation physique et nuisent à la portabilité.
- Connexion réseau externe (Internet) – Bien que les vitesses Internet soient largement annoncées en termes de bande passante maximale, une meilleure connexion peut améliorer la latence réelle et perçue. Une mise à niveau entraîne rarement une baisse des performances, mais veillez à lire les petits caractères et/ou à demander à d'autres utilisateurs avertis de vous faire part de leur expérience.
- Livraison ciblée des données – Lorsque les utilisateurs interagissent d'abord avec certains éléments de données (par exemple, les données en haut d'une page web), si ceux-ci se chargent plus rapidement, l'utilisateur peut considérer que la page est plus réactive que si tous les éléments se chargeaient à la même vitesse. De même, les réseaux de données peuvent choisir de donner la priorité à la vidéoconférence et à d'autres tâches sensibles au facteur temps par rapport à d'autres. Si les détails de la mise en œuvre varient considérablement en fonction de l'application, il convient de réfléchir à la manière dont nous utilisons les ressources disponibles lorsque cela est possible.
Latence | Un défi important à l'ère de la connectivité
À mesure que de plus en plus d'appareils sont connectés, il est primordial de disposer d'une connexion rapide, fiable et à faible latence.
Qu'est-ce qu'une bonne vitesse de latence, pour ainsi dire ? La plus faible possible. Bien qu'il soit impossible de l'éliminer complètement, il est primordial de maintenir une faible latence tout en surveillant les problèmes et même les possibilités d'amélioration. Cela s'applique tant au niveau professionnel que personnel, et est particulièrement important pour les appareils IoT toujours connectés.
Une cybersécurité alimentée par l'IA
Améliorez votre posture de sécurité grâce à la détection en temps réel, à une réponse à la vitesse de la machine et à une visibilité totale de l'ensemble de votre environnement numérique.
Obtenir une démonstrationConclusion
La latence dans les réseaux informatiques correspond au temps nécessaire aux données pour voyager d'un endroit à un autre. Une latence faible, généralement mesurée en millisecondes, est préférable. Elle peut être affectée par les connexions Internet, le matériel et la proximité physique entre les nœuds. La latence peut avoir un effet significatif sur la cybersécurité, car les délais entre une attaque, sa détection, et la réaction signifie plus de temps pour les acteurs malveillants pour potentiellement endommager un système.
"FAQs
La bande passante, qui correspond à la quantité de données pouvant être transmises pendant une période donnée, est souvent exprimée en Mbps (mégabits par seconde) et ne doit pas être confondue avec la latence, généralement exprimée en ms. Cependant, du point de vue de l'expérience utilisateur, une page Web qui met longtemps à se charger en raison de la latence a un effet similaire à celui d'une page Web qui met longtemps à se charger en raison d'une bande passante limitée.
Une latence élevée fait référence à toute situation dans laquelle la latence d'un système informatique est inacceptable. Bien que cela varie en fonction du contexte, une valeur temporelle plus faible (généralement en ms) est préférable à une valeur plus élevée. Par exemple, si une latence de 50 ms est acceptable, voire bonne dans une certaine situation, une latence de 200 ms devra très probablement être améliorée.
Une faible latence (c'est-à-dire une faible valeur temporelle requise pour que les données passent d'un point à un autre du réseau) est préférable à une latence élevée dans presque toutes les applications réseau.

