QoS o Calidad de Servicio son las tecnologías utilizadas para priorizar el tráfico en la red de determinados servicios y garantizar los recursos necesarios para su correcto funcionamiento.
Necesidad del QoS
En las comunicaciones de la empresa, se trabaja con todo tipo de aplicaciones y servicios para desarrollar la actividad diaria. Hay determinados servicios que necesitan tener garantizados una serie de recursos frente al resto o de otro modo no son funcionales.
Pensemos en la retransmisión de voz y vídeo mediante la red, cada día más habitual en las comunicaciones empresariales. Este tipo de retransmisiones, no puede estar sujeta a la competencia por recursos de otras aplicaciones.
Por ejemplo: si realizamos una videoconferencia, no es aceptable que comencemos a sufrir una degradación del servicio porque no tiene ancho de banda suficiente, debido a que en ese mismo momento, se está realizando un volcado de datos en Internet. Mediante QoS podemos garantizar los recursos mínimos necesarios a la aplicación de videoconferencia. Así, siempre contará con el mínimo necesario para su correcto funcionamiento, con independencia del resto de procesos que se estén llevando a cabo en ese momento.
Gracias a implementar las políticas de servicios QoS, se pueden definir los SLA o Acuerdos de Nivel de Servicio. Así, se definen bajo que condiciones, determinado servicio se encuentra dentro de los parámetros esperados. También, a partir de que momento, deja de considerarse que trabaja en unas condiciones aceptables.
Valores relativos al QoS
Existen numerosos valores a tener en cuenta a la hora de definir una política de QoS para un determinado servicio. Debemos considerar entre otros:
La pérdida de paquetes
Se produce una pérdida de paquetes cuando los dispositivos conectados en la red, implicados en la comunicación, no son capaces de retransmitir correctamente la información.
Normalmente, se debe a a que se saturan y por lo tanto comienzan a descartar paquetes que desbordan su cola de operaciones.
En algunos servicios, puede no tener ninguna importancia. En cambio, en otros, produce una degradación del servicio que pueden llevarlo a no ser operativo.
Si realizamos la copia de grandes bloques de datos a un medio externo, puede que los dispositivos implicados comiencen a acumular más paquetes para procesar de los que realmente pueden manejar. Esto, llevará a descartar paquetes de esas colas. Si el protocolo utilizado permite la retransmisión, una vez que el receptor de los mismos se da cuenta del error, solicitará que se envíen de nuevo aquellos que no se han trasnmitido correctamente, han tenido algún problema en tránsito o que directamente se han descartado y por lo tanto faltan en el destino. Una vez recibidos todos, el receptor, los reordena adecuadamente y la transferencia se ha realizado con éxito. Es una situación típica de una retransmisión de paquetes mediante el protocolo TCP. En este caso la pérdida de paquetes puede producir una degradación del servicio, pues será más lento de lo estimado inicialmente pero si la pérdida no es masiva, es subsanable.
Ahora en cambio, pensemos en un servicio de Voz IP (VoIP). Al establecer la llamada, la información viaja del emisor al receptor y los equipos implicados, cambian sus roles constantemente. Emiten y reciben los datos en función de la dirección de la comunicación en ese momento.
En este caso, si los equipos se saturan y comienzan a descartar paquetes, ya no se retransmiten de nuevo, puesto que la comunicación es en tiempo real. La consecuencia es que las comunicaciones estarán entrecortadas. Esta pérdida de paquetes es definitiva y de nada serviría que recibamos posteriormente, aquellos «fragmentos» que se perdieron en la comunicación original. Si se han perdido en la comunicación en tiempo real, no se vuelven a transmitir.
En este caso, contar con QoS es fundamental para garantizar la calidad del servicio de la VoIP. Como vimos, sirve para establecer unos mínimos aceptables o SLAs de nivel de servicio.
Latencia o lag
Se conoce como latencia o lag, el tiempo empleado para que un paquete de datos alcance su destino.
Realizamos una transmisión de paquetes de A hasta B. La latencia es el tiempo que le lleva a ese paquete atravesar todas las conexiones y dispositivos hasta finalmente alcanzar su objetivo B.
La latencia se mide en milisegundos.
Una latencia de 100 milisegundos (ms) indica que hay una demora de 100ms en recibir la información.
La latencia viene determinada por la velocidad de las líneas de comunicación, las propias tecnologías utiilizadas para la retransmisión y el tiempo que les demora, a los dispositivos de red, encauzar adecuadamente el paquete de datos hacia su destino.
Todos los elementos implicados en la transmisión de los paquetes influyen en el cómputo final. Cada uno de ellos, incrementa el tiempo requerido para completar el proceso y la latencia es la suma total de todos los tiempos requeridos en los procesos intermedios.
Hay tecnologías que pueden tener velocidades de transmisión de paquetes muy altas pero una gran latencia y al revés.
Pensemos en una comunicación vía satélite con una velocidad de 100Mb/s. Transmitir un fichero de apenas unos KB puede demorar mucho más tiempo (al menos inicialmente) que en una línea de fibra de 50 Mb/s. En este caso, la velocidad de ambas líneas es muy superior a la cantidad de datos a transmitir, por lo que ese no es el problema. En las comunicaciones vía satélite se produce, por la propia tecnología, mucho retardo y cuentan con una latencia muy alta ya que los paquetes de datos deben alcanzar los satélites para su retransmisión y les demora mucho tiempo. Esto no ocurre en una comunicación por fibra óptica, que cuenta con una latencia muy baja. Una vez que los paquetes se ponen en tránsito, ambas líneas tienen capacidad de ancho de banda más que suficiente para completar la operación sin que supongan un cuello de botella.
Así pues, vemos que la latencia es muy importante en las comunicaciones y que no se debe atender únicamente a la velocidad o capacidad de transmisión de los datos. Es un valor muy conocido entre los usuarios de los juegos online pues afecta mucho a la jugabilidad.
La latencia es mejor cuanto menor sea el número puesto que indica que un paquete tarda menos tiempo en alcanzar su destino final.
Fluctuación de fase o jitter
Se conoce como fluctuación de fase o jitter a la diferencia entre los retrasos en las comunicaciones de paquetes IP.
Hemos visto como la latencia de las comunicaciones, afecta a las comunicaciones y puede producir la degradación de los servicios que utilizamos o incluso hacer que no se pueden utilizar en la práctica. La latencia nos indica el retardo en un determinado momento, mientras que el jitter indica la variación de esa latencia en una secuencia de tiempo.
Si pensamos en una llamada a través de VoIP sobre una línea de comunicación muy rápida, pero que tenga una latencia elevada, producirá «ecos» en la llamada, el solapamiento de las conversaciones, etc. En definitiva, los datos se transmiten a la veocidad suficiente pero ese retardo hace que, en la práctica, el servicio no se pueda utilizar para realizar una llamada de voz fluida.
Además de ese factor, debemos tener en cuenta lo que se denomina jitter. Consiste en la fluctuación de los retrasos en el tiempo.
Supongamos que transmitimos los datos de A hacia B y tenemos una latencia de 100ms. Cuando un paquete de datos sale de A, llegará a B 100ms más tarde. Esos 100ms corresponden al tiempo que le ha llevado al paquete atravesar todos los dispositivos de red que se ha encontrado en su paso y transmitirse por las distintas líneas que, a su vez, unen esos dispositivos.
Si el retardo es estable y constante y enviamos desde A los paquetes 1-2-3-4-5 llegarán hasta B, 100ms más tarde de forma 1-2-3-4-5. Es decir, cada paquete llegará en el orden correcto 100ms más tarde desde que salieron de A.
Pero la ruta que siguen los paquetes para viajar desde A hasta B no siempre es la misma y el retraso en alcanzar B, dependerá del estado de los dispositivos de red por los que va pasando, la ruta elegida en cada momento, el estado de las líneas, etc.
En definitiva, el tiempo que demora en llegar de A hasta B va a ir cambiando con el tiempo.
Al paquete 1 le puede tomar 10ms, al paquete 2 en cambio 20ms… y así constantemente. Esta fluctuación de la latencia en el tiempo es lo que se conoce como jitter. Cuanto mayor sea este valor, más fluctuación se estará produciendo. Cuando el jitter es menor, la lista de paquetes se recibirá con el retraso que corresponda, pero debidamente ordenada, en relación a como salió desde el origen.
Si el jitter aumenta, los paquetes llegarán cada uno con un retraso distinto y por lo tanto, se recibirán desordenados en el destino.
Es un parámetro fundamental. A tener en cuenta para garantizar una correcta calidad de las comunicaciones.
Un jitter alto impide una correcta transmisión de la información y los valores deseados son los más cercanos a cero.
Ancho de banda
El ancho de banda es la capacidad que tiene una línea de comunicaciones para transmitir un determinado volumen de datos en una unidad de tiempo.
Si tenemos una línea de datos de 1000 Mb/s quiere decir que esa línea puede transmitir 1.000 Megabits de datos por segundo.
Dado que los recursos de las líneas de comunicación son limitados, es necesario priorizar el uso que vamos a hacer del mismo para garantizar un volumen suficiente para ejecutar aquellos servicios que son más críticos.
Los servicios, suelen funcionar por competencia. Esto, quiere decir que «pelean» entre ellos para obtener los recursos necesarios para ejecutarse.
Si en una red de 20 usuarios, cada uno de ellos hace uso de 100Mb/s y la línea con la que accedemos a Internet tiene una capacidad o ancho de banda de 1000Mb/s, los distintos servicios intentarán transmitirse consiguiendo el mayor caudal posible. Dado que los requisitos son mayores que el total disponible, cada uno de ellos intentará «conseguir» el mayor porcentaje posible para completar su transmisión.
Precisamente el uso de QoS nos sirve para garantizar parte de esos recursos a determinados servicios, usuarios, etc. De este modo, siempre tienen disponibles los recursos necesarios, gracias a la prioridad que hemos establecido sobre otros, que pueden resultar menos críticos para el negocio.
Un ejemplo habitual es dotar de prioridad al tráfico de los servicios de VoIP, para que no tengan problemas de ancho de banda disponible. Frente a otros servicios como pueda ser la navegación web o la descarga de ficheros.
No hay problema si una descarga tarda más de lo habitual en completarse, pero sí cuando una llamada telefónica se escucha a medias o con retardo.
Clasificación de las aplicaciones en función de sus requisitos.
En base a los reuisitos de las aplicaciones, podemos diferenciarlas en 2 grandes grupos:
- Elásticas.
- No elásticas (¿inelasticas?).
Elásticas
Se adaptan a las condiciones dela red y por lo tanto tienen flexibilidad a la hora de utilizarlos. Por ejemplo la transmisión de archivos o la navegación por las páginas web.
Usan los recursos de red a los que tengan acceso, pero una variación en ellos no impide qu sigan funcionando. Así, podemos descargar un fichero de un sitoi remoto. Si la red está más saturada, la descarga será más lenta, pero el proceso continúa sin interrumpirse.
Inelásticas
Inflexibles, no elásticas o ¿inelásticas? son aquellas aplicaciones que necesitan unos parámetros mínimos que garanticen su funcionamiento. Si no se cumplen, no son capaces de cumplir su objetivo.
Por ejemplo la VoIP. Sin los mínimos necesarios no es viable su uso y no pueden ucmplir el cometido para el que han sido diseñados.
La importancia del QoS en las empresas
Las empresas deben definir políticas de QoS para sus servicios y la actividad de sus empleados y procesos.
Dado que los recursos de red con los que cuentan son limitados, tienen que estabelcer políticas que les permitan definir cuales son los procesos críticos en su negocio y cuales pueden trabajar en unas condiciones peores a las deseables, en caso de saturación.
Así, deben prestar especial atención a eliminar la latencia en sus sistemas y comunicaciones, al menos en la parte que pueden controlar, su red. Los distintos dispositivos no pueden representar un cuello de botella en las comunicaciones o todas las tareas que los utilicen se verán afectadas de forma negativa. La experiencia de los usuarios (que se mide en la denominada Quality of Experience o QoE) va a determinar el uso real que se haga de los servicios.
Si un usuario tiene a su disposición distintos servicios y participa en procesos de negocio, que en la práctica, no es capaz de usar por el mal funcionamiento de los mismos, no servirán de nada.
Por ejemplo: una compañía pone a disposición de los usuarios las conexiones VPN con la central, para que aseguren el tráfico cuando están fuera. En cambio, la realidad es que cuando se conectan a la VPN funciona tan lento que no se puede utilizar y deciden usar conexiones menos seguras como las Wi fi públicas. La falta de recursos y de una política de QoS adecuada, está poniendo en grave peligro la seguridad de toda la red de la empresa.
También, es deseable combinar estas políticas con otras como la alta disponibilidad, la redundancia, etc que hacen que, trabajando de forma conjunta, se consigan un mayor rendimiento de los sistemas. Además de una mejor experiencia del usuario y un uso aceptable de los servicios que demanda la empresa.
Beneficios del QoS
Como hemos visto, el uso de QoS en las empresas permite manejar de forma más eficiente los recursos que tienen disponibles, como el ancho de banda de sus comunicaciones.
También, permite priorizar los procesos críticos de la compañía, en detrimento de otros que no son vitales para el desarrollo de su actividad.
El usuariom mejora su experiencia al utilizar los recursos que tiene disponible, garantizando un uso adecuado y con la calidad esperada, aumentando la calidad de su experiencia.
Los administradores de la red, pueden gestionar el tráfico de forma más eficiente y asegurarse que los procesos de misión crítica se desarrollan dentro de los valores óptimos, en base a los SLAs.
La empresa puede destinar esfuerzos a mejorar las infraestructuras de forma controlada y más eficiente, pues los recursos se gestionan de forma óptima y eficiente.
Fases de implementación de la política de QoS
Dado que las políticas de Quality of Service van a tener un impacto directo en las comunicaciones de la empresa y como desarrolla sus procesos de negocio, es fundamental realizar un estudio previo, una implementación adecuada y un análisis del impacto.
Así, podemos comparar el resultado obtenido con el rendimiento esperado y ajustarlo en función de los datos.
Distinguimos las distintas fases de un proyecto de adopción de QoS:
- Planificación
- Diseño
- Prueba
- Despliegue e implementación
- Análisis y seguimiento
Veamos cada una de las distintas fases del proyecto de adopción de QoS en la empresa.
Planificación
La empresa debe analizar sus procesos y los servicios que utiliza. Es importante ver con todos los departamentos y usuarios que hacen usos de los distintos servicios que tareas se definen como críticas.
Un análisis previo permite definir claramente cuales son los mínimos aceptables de uso y que se entiende como una calidad de experiencia adecuada.
Diseño
Una vez se cuenta con los objetivos que se deben alcanzar, la empresa debe diseñar las distintas estrategias para implementar QoS en su infraestructura de red.
Es necesario estudiar si los dispositivos, comunicaciones y cualquier factor implicado, están dentro de los parámetros esperados o si por el contrario deben actualizarse para cumplir los objetivos.
Todos los implicados son conscientes de las limitaciones de los recursos con los que cuenta la empresa, de modo que no se puedan exigir unas prestaciones mayores a los recursos disponibles. Esta fase puede llevar a la necesidad de replantearse la planificación previa de forma que se adecúe correctamente los resultados previstos con los recursos realmente disponibles para llevarlos a cabo.
Prueba
En situaciones ideales, la fase de prueba debe llevarse a cabo sobre escenarios controlados. Completamente separados de los servicios en producción de la empresa.
Sin embargo, la realidad es que no siempre es posible contar con una infraestructura que replique la que se está utilizando en producción.
Aun no siendo lo deseable, es frecuente que el despliegue se realice directamente sobre la infraestructura en uso de la empresa, en lugar de en un escenario independiente. También, hay que tener en cuenta que, en ocasiones, los escenarios de prueba están idealizados. Puesto que no se enfrentan a las cargas de trabajo habituales de los escenarios reales y por tanto los resultados pueden estar alejados de los obtenidos tras la fase de despliegue e implementación en los entornos en producción.
Despliegue e implementación
Se aplican las políticas de QoS en los sistemas y procesos de la compañía, en base a la planificación y diseño definido previamente.
Dado que van a suponer un impacto directo en los modelos producivos de la empresa y en sus procesos, es importante realizar esta tarea de forma progresiva. De este modo, se puede medir el impacto real de esta calidad de servicio. Así como plantearse si es necesario volver a analizarla, rediseñarla o ajustar los valores previstos para un servicio dentro de los SLAs aceptables por la empresa.
Análisis y seguimiento
Una vez se han implementado las distintas políticas de QoS, es necesario evaluar el impacto y comprobar si están dentro de los parámetros fijados.
Se trata de un seguimiento recurrente. Los procesos de las empresas cambian de forma permanente y lo que hoy puede estar dentro de unos parámetros aceptables, pueden ser insuficientes en un corto plazo.
También, esta fase permite analilzar si los recursos con los que cuenta la empresa para sus comunicaciones son suficientes o deben incrementarse. Las distintas aplicaciones y servicios demandan cada vez un mayor ancho de banda para su funcionamiento. Gracias al análisis de las medidas implementadas, los adminsitradores de red pueden evaluar si deben realizar cambios en las políticas de QoS, dotar a la empresa de más líneas de conexión, actualizar dispositivos, etc.
La parte de gerencia de la empresa a su vez, cuenta con datos reales y medibles que les permiten evaluar el rndimiento de las comunicaciones de su empresa y establecer políticas de inversión adecuadas a las necesidades reales de sus negocios.
¿Qué modelos existen para implementar QoS?
Los modelos para implementar QoS n la red son básicamente tres:
- Modelo de mejor esfuerzo
- Servicios integrados (IntServ)
- Servicios diferenciados (DiffServ)
Vamos a verlos con más detalle.
Modelo de mejor esfuerzo (Best-effort model)
Realmente no se trata de una implementación de QoS porque no está explicitamente definida.
Se utiliza de forma masiva y tiene como ventaja que es muy escalable. Se suele decir que se utiliza cuando QoS no es realmente necesario. Sería más acertado decir que no se trata de una política de QoS, puesto que los datos llegan «cuando y como pueden» sin asignarle una prioridad.
Consiste en que todos los paquetes cuentan con la misma prioridad y cada uno de ellos, alcanzará su destino «como pueda». No se garantiza una prioridad para ninguno de ellos, ni tampoco la entrega de los mismos. La red no es capaz de identificar los paquetes y por lo tanto no puede tratarlos de forma distinta.
Une ejemplo de esta forma de funcionar es la red de Internet. Se puede decir que tiene una política de QoS de mejor esfuerzo o directamente que no cuenta con QoS.
Ejemplo: enviamos varios paquetes usando el servicio postal. Con independencia del contenido de cada una de ellos, el trato que van a recibir será el mismo. La prioridad que se la va a dar es igual para todos y no tenemos la garantía de que lleguen a su destino. Simplemente los depositamos en la oficina postal y confiamos en que cada paquete alcance su destino. Los operarios del servicio de correos desconocen el contenido de los mismos y no pueden establecer políticas diferentes. Simplemente se unen al resto de paquetes en el reparto y cada uno, con sus condiciones particulares, tratará de llegar al destino, aunque sin garantías de tiempo y forma.
Servicios integrados (IntServ)
En esta implemetación de QoS el servicio realiza una reserva del ancho de banda necesario desde el origen hasta el destino. Para ello, utiliza el protocolo RSVP (Resource reSerVation Protocol) que es el encargado de realizar la reserva de recursos. Si no hay recursos disponibles, rechaza la petición, por lo que se realiza un control de admisión de las comunicaciones o CAC (Connection Admission Control).
Pensemos en un servicio de VoIP determinado, que necesita contar con un ancho de banda garantizado de 100Kb/s, determinada latencia, etc para que la aplicación funcione dentro de unos parámetros aceptables.
Si queremos asignarle QoS mediante IntServ debemos asegurarnos que, desde el origen de la conexión hasta el destinatario, incluyendo todos los puntos intermedios, existe compatibilidad con esta implementación. De ser así, los dispositivos reservan el ancho de banda necesario, asegurando la disponibilidad de los recursos solicitados de extremo a extremo.
El problema es que todos los routers y equipos que participan en la comunicación, deben ser compatibles con RSVP. Aunque con un coste alto, puede ser viable en entornos controlados, pero muy difícil de implementar en escenarios con puntos intermedios fuera del control de las empresas.
Así pues, la escalabilidad de estas implementaciones son bastante limitadas en oposición al coste, que suele ser muy elevado, dado los requisitos de los dispositivos de comunicación. Además, hace un uso muy elevado de los recursos de la red.
La ventaja de esta implementación es que se dispone del control total de extremo a extremo de la transmisión.
Servicios diferenciados (DiffServ)
Se trata de un mecanismo simple para asignar distintas prioridades a los tipos de tráfico en función de las necesidades de la empresa.
Así, puede asignar prioridad y recursos suficientes a las comunicaciones críticas y al mismo tiempo incluir al resto de servicios en «mejor esfuerzo». De este modo se garantiza la calidad de los procesos que son más importantes en la empresa (como pueda ser la VoIP) y el resto, utilizan como pueden, los recursos que les quedan disponibles (como puede ser la navegación web).
Este mecanismo es fácilmente escalable y rentable a la hora de implementarlo en las empresas. Sin embargo, no garantiza una calidad de extremo a extremo, puesto que no puede asegurar esa calidad de servicio durante todo el recorrido de los datos.
Está regulado en base a las RFC 2474, 2597, 2598, 3246, 4594.
El tráfico que se va a transmitir se divide en distintas clases y acada una de ellas se le puede asignar una prioridad y calidad de servicio. Se agrupa todo el tráfico relativo a esa categoría y se transmite con esa prioridad. En la modalidad de Intserv se realiza de forma individualizada para cada solicitud.
Ejemplo: tomando el ejemplo anterior del envío de paquetes mediante el correo postal, en este caso enviamos una ser de paquetes pero solicitamos, en función de la urgencia un servicio u otro. Contratamos el envío urgente para los que llevan datos críticos de la empresa, prioridad media para los del departamento de facturación y un servicio estándar para los que contienen publicidad corporativa. Tenemos distinas calidades de servicio en función del tráfico al que lo hemos agrupado y marcado y serán tratados por la oficina de correos de forma diferente. Si así lo contratamos, además, podemos también asegurarnos la entrega de los mismos a su destinatario.
Para facilitar el marcado de los paquetes el encabezado IP incluye un campo adicional de 1 byte (tanto en IPv4 como en IPv6). Está formado por:
- Differenciated Service Code Point (DSCP) (6 bits): Indica el tratamiento que debe recibir el paquete.
- Explicit Congestion Notification (ECN) (2 bits): Permite a notificar a los extremos cuando hay congestión.
Una de sus principales ventajas es que no solo podemos establecer una calidad de servicio en función al tipo de contenido que se transmite, sino que además, se puede establecer una jerarquía de importancia en base a las prioridades de la empresa.
Marca los paquetes con una etiqueta y determina con los routers un tratamiento específico. No se realiza la reserva de los recursos por flujo, ni protocolo de señalización, ni información de estado de routers. Así, las garantías de calidad de servicio no son tan estrictas como en IntServ, pero suelen ser suficientes.


Échale un vistazo:
Tipos de VPN
Existen distintos tipos de conexiones VPN que podemos implementar en las redes de la empresa para acceder a los recursos de la misma. Vamos a comenzar por definir que es una VPN Una VPN o Virtual Private Network, es una red que creamos bajo demanda, entre 2 puntos...
BYOD Bring Your Own Device
Cada vez son más las empresas que aplican políticas de BYOD en el trabajo. Ya sea por petición de los empleados o por iniciativa de la propia compañía. Aporta numerosas ventajas, pero también, hay que ser conscientes de las amenazas que representa en la red...
NGFW Next Generation Firewall
NGFW es la abreviatura de las siglas Next Generation Firewall.Se trata de la evolución de los firewalls tradicionales hacia sistemas completos de seguridad que integran funcionalidades avanzadas.NGFW frente a firewalls tradicionales El funcionamiento de un Firewall...