Qué es latencia de red y cómo reducirla


latencia de red mercadoit

Si es técnico o trabaja en el mundo de Telecomunicaciones y Redes, es posible que haya escuchado la expresión, latencia de red, cuando se habla de la nube o de los servidores locales. También se menciona en redes y se puede aplicar a casi cualquier escenario en lo que respecta a los datos.

En pocas palabras, la latencia es una medida de retraso entre dos puntos. Es decir, qué tan grande es la pausa cuando los datos se mueven a través de una red.

Pero no solo se aplica a los datos en el sentido específico. Se puede aplicar al movimiento de cualquier cosa entre dos puntos. Por ejemplo, ondas de radio, ondas de sonido o incluso el movimiento de empleados entre dos puntos.

Sin embargo, se hace referencia principalmente al analizar el movimiento de datos y el tiempo que tarda la información en moverse de un punto a otro. Esto podría ser el tiempo que tarda la información en viajar desde un sitio web hasta su punto final o insertar datos en un ordenador y esperar una salida (como abrir una aplicación, un archivo o simplemente escribir en un documento).

Cuando se hace referencia a la latencia de red, la medición se realiza calculando el tiempo de ida y vuelta de los datos, es decir, ingresando un comando y esperando que la respuesta llegue.

La latencia de red se mide en milisegundos (ms), cuanto más bajo es el número, la latencia se comporta  mejor y, por lo tanto, la red también. Aunque es difícil medir la latencia sin conocer el contexto de la medición.

Lo que constituye una baja latencia depende en gran medida del sistema utilizado. Por ejemplo, la conexión de Ethernet doméstica normalmente funcionará a alrededor de 10 ms, produciendo una caída de rendimiento notable si supera los 150 ms. Sin embargo, para las conexiones móviles 4G, las operaciones normales ocurren en alrededor de 45 ms a 60 ms, mientras que las conexiones 3G pueden duplicarse.

En un mundo ideal, cada conexión tendría una latencia cero, sin embargo, hay tantas variables interactivas que es poco probable que esto se haga realidad.

Incluso en el escenario perfecto, el acto de transferir un paquete de datos de un nodo a otro a la velocidad de la luz, conocida como propagación, producirá cierto retraso. Además, cuanto mayor sea el tamaño del paquete, más tiempo necesitara para viajar a través de una red.

También está el papel de la infraestructura y el hardware. Las conexiones de cable producirán diversos grados de latencia dependiendo del tipo de línea utilizada, ya sea coaxial o de fibra, y si el paquete tiene que viajar a través de una conexión Wi-Fi, esto agregará aún más retraso al proceso.

Latencia de red vs ancho de banda

La latencia y el ancho de banda no son términos intercambiables, ambos son importantes para evaluar la efectividad de una red.

El ancho de banda se ocupa de la capacidad de la red. Una línea con un alto ancho de banda puede soportar más tráfico que viaja simultáneamente a través de una red. En el caso de una red comercial, esto significa que más empleados pueden realizar funciones de red al mismo tiempo.

Sin embargo, esto no implica qué los datos se muevan más rápido. Para eso, debe evaluar la latencia de red, que debe ser baja si desea tener servicios de respuesta.

En MercadoIT disponemos de la familias Nexus de Cisco y toda la gama de producto de Arista. Que están especialmente diseñados para entornos datacenter donde la latencia es un parámetro critico.

Reduciendo la latencia de red

Dada la complejidad de algunas redes, reducir la latencia puede ser difícil de lograr con una sola actualización. Para reducirla realmente, es posible que deba hacer ajustes, grandes y pequeños, a cada aspecto de una red por la que viajará un paquete de datos.

Actualizar o modificar la infraestructura en sí es una forma de reducir la latencia, que incluye cambiar los switches antiguos o el cableado por algo más eficaz. Los operadores también pueden evaluar el diseño de sus redes para detectar cuellos de botella o servidores que pueden requerir recursos adicionales, u optimizarlos de manera que reduzcan la cantidad de nodos que un paquete de datos necesita atravesar.

Para las empresas que operan en varias regiones, vale la pena considerar el uso de redes de entrega de contenido (CDN). Proporcionan rutas dedicadas que normalmente se ubican en el borde y, por lo tanto, más cercanas a los usuarios finales, lo que a menudo reduce significativamente la distancia que debe recorrer un paquete de datos. Sin embargo, estos servicios pueden ser bastante costosos y los tipos de contenido que admiten a menudo son limitados, por lo que no siempre puede que valga la pena.

Por otro lado, puede ser útil considerar la posibilidad de conectar la infraestructura de su empresa directamente al centro de datos de un proveedor, esencialmente evitando a un agente de la nube por ejemplo. Sin embargo, estas suelen ser alternativas costosas a un contrato estándar y no necesariamente la mejor opción.

A nivel local, es posible reducir la latencia de red ligeramente al desinstalar programas innecesarios que pueden estar interfiriendo con su conexión.

Os recomendamos que tengáis en cuenta que a veces la alta latencia puede hacer que una red sea inoperable, pero es igual de probable que un bajo rendimiento sea el resultado de una aplicación mal diseñada o una infraestructura de mala calidad. Es importante asegurarse de que todas las aplicaciones o equipos frontera que dependen de su red se estén ejecutando correctamente y no estén acaparando demasiado de los recursos de su red.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>