Buscar en este blog

sábado, 29 de octubre de 2011

Entendiendo DPI: Wireshark & OpenDPI

En posteriores posts se irá analizando como trabaja "Deep Packet Inspection (DPI)" en aspectos tanto software como hardware. Antes de ello es interesante ver, aunque sea de modo simplificado, un ejemplo del análisis que ofrece esta tecnología. Para ello se emplean dos versiones 'open source' de las varias que hay disponibles, una es la herramienta de captura de tráfico Wireshark, y la otra el codigo OpenDPI de Ipoque. Con ellas se puede ver como distinguen entre diferentes tipos de tráficos y de flujos.

Se ha hecho una captura del tráfico generado en una sesión estándar de usuario, tráfico web, tráfico P2P, cliente de mensajería, etc mediante el propio Wireshark. El tráfico capturado corresponde al uso de estas aplicaciones durante unos 5 minutos. Veamos como muestran los protocolos las dos herramientas empleadas.

Wireshark es una herramienta de análisis y captura de tráfico que emplea DPI, aunque a un nivel superficial (podríamos hablar más bien de SPI). Se suele emplear en entornos educativos y a nivel de usuario ya que no soportaría un análisis masivo de tráfico. Ofrece un entorno gráfico con algunas opciones interesantes que facilitan la visualización de las particularidades de cada protocolo. En la siguiente imagen se muestra una de las visualizaciones que permite esta herramienta.



Por otro lado, OpenDPI es una versión limitda de la que el proveedor de soluciones de gestión de ancho de banda Ipoque ofrece en sus productos, el motor PACE (Protocol and Applicaton Classification Engine). Por ello, el número de protocolos que es capaz de detectar es considerablemente inferior al de la versión comercial, así como la velocidad y rendimiento del análisis. No emplea análisis heurístico o de comportamiento, por lo que no es capaz de detectar conexiones cifradas o enmascaradas. La misma captura realizada con esta herramienta da el siguiente resultado que se muestra a continuación.



Como se puede observar el número de paquetes que considera la herramienta OpenDPI son los paquetes IP, que suman 31.468. A diferencia de la visualización que ofrece Wireshark, OpenDPI solo muestra la capa L7, que es la que contiene la información sobre el tipo de aplicación. Se puede observar que existe una mayor precisión en el análisis realizado por OpenDPI, aunque como ya se preveía por ser una versión reducida no ha logrado identificar alrededor de un 15% de los paquetes (esta cifra en el análisis de Wireshark es notablemente superior). 

Este mismo ejercicio se realizará cuando se hable de "Deep Flow Inspection (DFI)", pero habilitando la opción de cifrar el tráfico que poseen la mayoría de clientes P2P. Así se mostrará como responde la herramienta OpenDPI ante este tráfico cifrado, que en principio no puede ser detectado solo con DPI.

domingo, 9 de octubre de 2011

Deep Packet Inspection (DPI)

Como se ha venido diciendo en el blog, la capacidad de acceder a Internet se está viendo desbordada. El crecimiento del consumo de datos es mayor que el de la tecnología que se empela para su tratamiento, dando lugar la necesidad de "La Gestión de Tráfico". Esta gestión se lleva a cabo para solventar o prevenir problemas de congestión mediante el análisis y posterior clasificación del tráfico que atraviesa las redes. En principio, si no se hiciese una "Violación de recomendaciones y normas en Internet", bastaría con analizar a que puerto se dirige un paquete o flujo de paquetes para saber de que tipo de tráfico se trata, ya que existen una serie de asignaciones sobre que protocolo o aplicación debería emplear dicho puerto. 

Pero la realidad es bien distinta, muchas aplicaciones pretenden no ser descubiertas para que así su tráfico no se vea afectado por las medidas de gestión de la congestión. Para ello hacen uso de puertos indebidos, abren varias conexiones en paralelo (ver "Cómo funciona Internet? (II)"), o en el caso más extremo encriptan u ofuscan su tráfico para dificultar la identificación. Por este motivo, empresas como Sandvine, Ipoque, Allot o Procera e incluso grandes fabricantes de equipos de red como Cisco o Ericsson, han desarrollado en los últimos años elementos capaces de identificar de forma muy precisa el tráfico que atraviesa la red. Estos equipos se basan en DPI (Deep Packet Inspection) y en DFI (Deep Flow Inspection) o análisis heurístico.

La tecnología DPI es capaz de analizar los datos que contiene un paquete más allá de las cabeceras del L3 (que es la única necesaria para transmitir los paquetes) y la del L4 (que aunque no es necesaria, es dónde se encuentra información sobre el flujo de datos y el puerto conexión). Para comprender algo mejor el tema de las cabeceras ver "Cómo funciona Internet?". Esto supone que la información de la capa de aplicación (L7) e incluso el contenido del usuario puede ser analizado para buscar ciertos patrones característicos de la aplicación o protocolo en uso, o también para prevenir ataques o malware.


El hecho de que se pueda analizar la información de usuario es uno de los aspectos más críticos en el debate de "La Neturalidad de Red" debido a que según los detractores de DPI, este viola la privacidad de los usuarios. En su defensa, fabricantes e ISPs alegan que para nada se lee o comprende la información del usuario ya que tan solo se buscan palabras en concreto. Como todo, la peligrosidad depende del uso que se le dé.

lunes, 26 de septiembre de 2011

Cómo funciona Internet? (II)

En el post "Cómo funciona Internet?" se explica a grandes rasgos el proceso que siguen los datos para ser enviados y recibidos. En esta ocasión veremos algunos matices más sobre el complejo funcionamiento de Internet. Los sistemas OSI y TCP/IP (que se explicaron en "Cómo funciona Internet?") definen los procesos y características que siguen los datos en su transmisión, aunque como bien se dijo son tan sólo modelos teóricos y la realidad es algo mas compleja. Los protocolos para comunicaciones existentes se pueden contar por miles y las funciones y responsabilidades de cada protocolo varían según las características para las que se ha desarrollado, entremezclándose a menudo. En este post se citan tres puntos que pretenden dar una muestra de la complejidad de los datos que viajan por Internet.

En primer lugar hablaremos del protocolo GTP (GPRS Tunneling Protocol) y las VPNs (Virtual Private Network), que ya vimos en el post "N00ter: una aplicación que detecta si hay Gestión de Tráfico" que interconectan a través de Internet dos redes LAN, se llevan a cabo mediante mecanismos de 'tunneling'. Esta técnica es un claro ejemplo de cómo se entremezclan los protocolos. El GTP se emplea en el transporte de las redes 3G móviles y se lleva a cabo encapsulando el paquete IP original en los protocolos UDP e IP . El resultado es bastante diferente de lo que el modelo OSI o TCP/IP, ya que en la pila de protocolos aparecen dos veces la capa IP y también dos veces la capa de L4 (TCP y UDP). El funcionamiento de VPN es algo mas complejo aunque el principio es similar.


Por otro lado, resulta interesante ver cómo las aplicaciones emplean los protocolos y como generan conexiones. Como conexión se debe entender el flujo de paquetes que van desde una dirección IP y puerto origen a una dirección IP y puerto destino, y según un protocolo de transporte (TCP o UDP). Esto, como ya se ha dicho en anteriores ocasiones, se conoce cómo 5-tuple y es empleado en varios dispositivos de red. El caso es que no existen limitaciones para el número de conexiones que se pueden dar sobre una máquina, y este es uno de los puntos donde se hace fuerte el P2P (ver "El tráfico P2P"), junto con la "Violación de recomendaciones y normas en Internet". Lo que se hace es simple, imaginemos dos clientes que abren varias conexiones en paralelo entre ellos para lograr mayores tasas de transferencia. La matemática es simple: la apertura de diez conexiones en paralelo ofrece una conexión global con una velocidad de transferencia de diez veces mayor que su cuota justa. Si se abren cien...

Por último, es de destacar también la complejidad que se añade al usar infinidad de protocolos entremezclados. Una aplicación no tiene porqué emplear tan sólo un protocolo en concreto, y el número de protocolos existentes es muy elevado (los equipos de análisis actuales reconocen del orden de 1000). Los motivos son varios, aunque generalmente suele deberse a que muchas aplicaciones empelan código de terceros o varios servicios que requieren varios protocolos. Un ejemplo claro de este hecho es Skype, por ejemplo, que emplea protocolos de VoIP, de mensajería instantánea, de video, etc.



martes, 30 de agosto de 2011

LTE, 4G y tratamiento de QoS

Muchas veces se habla sobre si tenemos o no cobertura 3G o 2G y sobre si el Iphone4 es 4G o no (la respuesta es que NO). Estos términos hacen referencia a la generación de la red móvil sobre la que nos estamos conectando. Como ya se ha dicho en este blog, el acceso móvil es uno de los mas críticos debido a que existen unas limitaciones físicas que son difíciles de combatir, además de tratarse de un medio compartido por varios usuarios. Por ello exige un trabajo de diseño e ingeniería muy complejo ofrecer mejoras en la velocidad de transferencia. En gran medida el debate de la Net Neutrality esta latente debido a la revolución que ha supuesto el creciente éxito de los dispositivos móviles y del consumo de datos que generan y generarán.

Estos factores han llevado al diseño de la red 4G que utiliza la tecnología LTE (Long Term Evolution) desarrollada por la 3GPP y que es interesante desde el punto de vista de "La Gestión de Tráfico" ya que este nuevo paradigma de red incluye mecanismos de gestión de QoS (Quality of Service) de modo intrínseco, además de por mejorar la capacidad en el acceso mediante el uso de OFDMA (Orthogonal Frecuency Divison Multiple Acces) en el uplink y técnicas MIMO (Multiple Input Multiple Output).


En las versiones anteriores de 3G (UMTS) y 2G (GPRS) ya se incluían algunas formas de gestión, aunque no de forma tan desarrollada y con una visión extremo a extremo (los datos atraviesan varias redes diferentes para alcanzar su destino) cómo lo hace LTE. En primer lugar hay que saber que en LTE todos los datos que atravesaran la red del operador serán IP, lo cual quiere decir que el servicio de voz tradicional ahora se hará sobre VoIP. Esto tiene de positivo que se converge hacia el modelo IP de Internet haciendo todo mas compatible y reduciendo costes. Todo este proceso forma parte de lo que se conoce como FMC (Fixed Mobile Convergence), que tiende a aproximar las diferentes arquitecturas de red hacia el modelo IMS (IP Multimedia Subsystem) derivado también de la 3GPP.

La voz tradicional se ha venido ofreciendo mediante conexión de circuitos y garantizando una cierta QoS. Esto quiere decir que cuando efectuamos una llamada primero de todo se reserva un enlace entre el emisor y el receptor que solo será empleado para la llamada, y si no hay enlaces disponibles no será posible llamar. Esta forma de proceder tiene de positivo que la QoS es garantizada, no obstante resulta muy poco óptima ya que dicho enlace no aprovecha su capacidad total. Con VoIP lo que se hace con nuestra llamada es enviarla en paquetes a través de una red IP (ver "Cómo funciona Internet?"), y así todos los paquetes viajan por el mismo canal, de forma que se aprovecha mejor el medio. Por contra, en este caso hay que garantizar algunos parámetros de calidad (sobre un tipo de red que no esta diseñada para ello) ya que la voz es sensible a algunos factores como la latencia (ver "Ancho de banda, latencia y jitter").

En cuanto a la Gestión de Tráfico, LTE incorpora un mecanismo conocido como PCC (Policy and Charging Control) que se ha posicionado como referente en las diferentes especificaciones en desarrollo (redes de cable y fijas) conocidas como NGN (New Generation Networks). Esta arquitectura se encarga de proporcionar de forma dinámica hasta 9 QCI (QoS Class Indentifier) con diferentes parámetros de ancho de banda, latencia, jitter y tasa de error PER (Packet Error Rate). Además de para la voz, esta asignación de QCIs aplica también para otros servicios (VoD, IPTV, streaming, P2P). El control y administración de la asignación se hace desde el núcleo de la red y se separa el plano de datos del plano de control (viajando en diferentes caminos). Para ello emplea dos elementos fundamentales:

  • PCRF (Policy and Charging Rules Function): Se trata de un elemento que se encarga de proporcionar las reglas especificas del operador. Su función se sitúa en el plano de control y aprovisiona la información necesaria a aplicar en función de unas ciertas reglas y previa identificación del tipo de tráfico o previa petición de QoS de una aplicación concreta.
  • PCEF (Policy and Charging Enforcement Function): Es la entidad situada en el plano de datos y lleva a cabo la aplicación de las políticas definidas en el PCRF. Al situarse en el plano de datos es el punto idóneo para llevar a cabo "Deep Packet Inspection (DPI)" para así identificar el tipo de tráfico en el caso de que no sea posible de otro modo (ver "Violación de recomendaciones y normas en Internet"). Para mas detalle comentar que se suele ubicar junto con el P-GW (Packet Data Network Gateway) que es el punto donde la red móvil se conecta con otras redes IP (como Internet) o no (como la RTC - Red Telefónica Conmutada- ).


Además de estos dos elementos básicos existen otros de facturación que en tiempo real pueden controlar los créditos y tarifas del suscriptor y aplicar los cargos correspondientes, todo de forma muy integrada. Toda esta arquitectura dota a los operadores de un poder de control exhaustivo sobre el consumo de los clientes, lo cual esta muy en contraposición con "La Neutralidad de Red" aunque bien aplicado puede repercutir en una gran QoE (Quality of Experience).

jueves, 18 de agosto de 2011

Violación de recomendaciones y normas en Internet

En anteriores posts se ha hablado sobre "La Gestión de Tráfico" y sobre que se debería considerar un "Uso razonable de Gestión de Tráfico". Para llevarse a cabo esta dicha gestión, los administradores de red deben conocer que tipo de aplicación se está empelando para darle sus características necesarias, cómo por ejemplo el "Ancho de banda, latencia y jitter". Para conocer el tipo de aplicación debería bastar en la mayoría de ocasiones, en un escenario ideal, con conocer los números de puerto a los que se va a realizar la conexión, pero en la realidad esta información no es ni mucho menos suficiente. Recordemos que el puerto no es más un identificador que se emplea en la L4 (capa de transporte, ver "Cómo funciona Internet?") para identificar las diferentes aplicaciones que se pueden conectar a un equipo. 


Existe un listado de los números de puerto que se deberían utilizar para cada aplicación definidos por la  IANA (Internet Assigned Numbers Autority). Son llamados 'well-kwnon port' y su uso está en principio delimitado para procesos conocidos. En total suman 1024 y se pueden ver las asignaciones desde aquí. Además de los 'well-knwon port" existen más asignaciones entre los puertos 1024 y 49.151, aunque estos pueden ser utilizados por cualquier usuario. Del 49.152 al 65.535 son puertos dinámicos o privados.



Lo que es relevante es que muchas aplicaciones no respetan dichas asignaciones y emplean puertos que no son los que están especificados para tal efecto. Existen aplicaciones que utilizan estos 'well-known port' para poder colarse a través de firewalls sin más problemas ya que estos por norma general analizan el 5-tuple (dir. IP origen, dir. IP destino, puerto origen, puerto destino, protocolo) y según sus reglas deja o no pasar el paquete. Esto es lo que hacen muchas aplicaciones del tipo P2P (ver "El tráfico P2P"), emplean estos puertos para que no sean descubiertas. Los avances en técnicas de control ha llevado a los desarrolladores de este tipo de aplicaciones a realizar una asignación dinámica y al parecer aleatoria de puertos para así burlar estos firewall y evitar que un flujo de datos sea detectado. 


Para solventar este uso incorrecto de las numeraciones de puertos, además de para otras aplicaciones, la industria ha desarrollado los equipos de "Deep Packet Inspection (DPI)" y análisi heurístico que son capaces de desgranar en tiempo real hasta el último detalle no sólo de un paquete (que contiene una parte de la información), si no de todo un flujo de datos. Esto permite a los gestores de red identificar correctamente los datos de aplicación como lo que son para entonces decidir que hacer con ellos. 


Dicho todo esto cabe remarcar que en esta argumentación se apoyan los defensores de "La Gestión de Tráfico", entre muchas otras, de las que seguiremos hablando. El uso indebido de los 'well-known port' nos llevan a un modelo de Internet anárquico que se va al extremo del concepto de que Internet debe ser una red abierta y libre, y los extremos no son buenos.

miércoles, 10 de agosto de 2011

N00ter: una aplicación que detecta si hay Gestión de Tráfico

Recientemente ha aparecido N00ter, una aplicación que permitirá determinar si nuestro ISP está aplicando Gestión de Tráfico (ver "La Gestión de Tráfico"). Su creador, Dan Kaminsky, así lo anunció la primera semana de Agosto de 2011 en una conferencia prometiendo que en las próximas semanas dicha aplicación estará disponible para su descarga. 

Para explicar su funcionamiento primero hay que introducir dos conceptos en los que se basa la aplicación para aquellos que no estén muy puestos en la materia: las redes VPN (Virtual Private Network) y los servidores proxy. No es la intención de este post detallar estos dos elementos, tan sólo dar una visión de que tareas llevan a cabo.

Una VPN vendría a ser cómo una red local virtual. Una red local o LAN (Local Area Network) es la típica red doméstica o empresarial que suele tener conectados PC y equipos periféricos (impresoras, escáneres, etc.). Que sea virtual quiere decir que sus funciones son las mismas que las de una red local pero sin serlo físicamente, es decir, se configura para que se comporte cómo tal mediante túneles a través, generalmente, de Internet. Así, dos oficinas de una entidad pueden formar parte de una misma LAN mediante una VPN, por poner un ejemplo. Evidentemente la seguridad en una VPN es un tema de máxima prioridad, por lo que los datos están encriptados y no son accesibles.


Por otro lado, un servidor proxy (normalmente tan sólo proxy) es una herramienta a la que se le atribuyen muchas funcionalidades, pero básicamente lo que debemos saber es que es una máquina que actúa en nombre de otra. Una de las aplicaciones mas usuales es la de proxy HTTP (navegación web). Cuando solicitamos una página web generalmente no nos conectamos directamente al servidor destino si no que lo hacemos al servidor proxy, que actúa en su nombre. Las ventajas que esto presenta responden a motivos de velocidad y control.

Pues bien, aclarado esto, lo que N00ter hace es crear una VPN entre el cliente y un proxy (estrictamente se trata de un broker, que realiza una función similar). El broker es en este caso el que se comunica con el proveedor de servicios, pongamos Google y Bing, y devuelve la información encriptada al cliente, de modo que el ISP no puede saber que información se transporta. Posteriormente se realiza la misma conexión, pero sin hacer uso de la VPN y modificando los datos para que no se aprecie el efecto del broker (así el ISP verá tráfico puro de Google y de Bing), de modo que el ISP si que pueda saber que tráfico se está transmitiendo. Dada esta situación, si el tráfico de uno de los dos proveedores llega antes o después en comparación al resultado anterior, será debido a qué se esta empleando Gestión de Tráfico.

No queda otra que estar atentos a que se lance la aplicación para comprobar su funcionamiento, y en caso de que de los resultados esperados seguro que va a desatar alguna que otra polémica. Habrá que esperar a que se ponga a descarga la aplicación.

sábado, 6 de agosto de 2011

Diez cuestiones a tener en cuenta sobre la Neutralidad de Red

Recientemente he sido contactado por un miembro del portal www.dslserviceproviders.org debido a que han dado con este blog y se han tomado el detalle de comentarme que han escrito un post relacionado con la Neutralidad de Red además de felicitarme por el blog, lo cual agradezco enormemente. En concreto, el post hace una breve introducción sobre el tema de la Net Neutrality y enumera diez puntos claves a saber, que por su interés se pasan a comentar:
  • Los defensores de la Net Neutrality afirman que regular la Gestión de Tráfico estimula una competencia leal.
  • Los opositores defienden que no es necesaria una Gestión de Tráfico ya que en general los ISPs no tienen intención de manipular el mercado a su favor.
  • Los partidarios de la Neutralidad de Red piensan que los ISPs tiene intención de crear escenarios monopolistas mediante la creación de servicios jerarquizados que expriman las capacidades de red y limitando el acceso a la competencia.
  • Se cree que la aplicación de políticas de gestión de tráfico puede frenar la innovación y limitar los incentivos para hacer crecer Internet.
  • Algunas empresas proveedoras de servicio (como Netflix) podrían verse afectadas por un modelo jerarquizado de Internet provocando que los clientes se vieran en la necesidad de escoger entre versiones particularizadas de cada ISP.
  • El acceso a contenidos legales de los clientes debería ser ilimitado.
  • Los clientes deberían ser capaces de conectar cualquier dispositivo a Internet.
  • Los usuarios en general quieren poder escoger entre diferentes ISPs y porveedores de contenido.
  • Se debería limitar la capacidad de los ISPs de practicar Gestión de Tráfico.
  • Cualquier gestión llevada a cabo por un ISP debería ser transpartente y clara de modo que el usuario este informado de qué acciones se pueden llevar a cabo.

Si bien se trata de aspectos muy superficiales sobre el tema, conforman una buena síntesi que puede aportar un visión rápida de que consiste el debate y que factores actúan. Para mas detalle ver las diferentes entradas en el blog.

viernes, 5 de agosto de 2011

AT&T, T-Mobile y las competencias de la FCC

El pasado Viernes 29 de Julio de 2011, AT&T (American Telephone and Telegraph, uno de los grandes operadores en EEUU y líder en telefonía móvil) anunció que aplicará Gestión de Tráfico a los abonados que posean un plan de datos ilimitado en contratos móviles. En concreto la medida afectará tan sólo a cerca del 5% de sus clientes, si bien se se trata de los clientes que consumen hasta 12x la media de consumo de datos, y consistirá en reducir la velocidad de descarga (ancho de banda) a partir de un cierto umbral de consumo. La noticia en si puede no resultar muy chocante (en España, existen compañías que aplican este modelo - Yoigo, por ejemplo - sin desatar ninguna polémica).

Lo que está dando que hablar es en primer lugar, el hecho de que quién va a ser el encargado de controlar estas políticas de Gestión de Tráfico si la FCC (Federal Communication Commision), tal y como se vio en "FCC vs. Comcast", no dispone de poderes suficientes. Por lo tanto, si se aplica esta reducción de ancho de banda se teme que en la práctica no sólo se realice esta reducción a clientes masivos.


Pero el factor más polémico es el hecho de que existe la intención de AT&T de adquirir la filial alemana de T-Mobile (cuarta operadora móvil del país). Esta fusión implicaría que el grupo poseería una cuota de mercado muy superior a la del segundo operador móvil del país (Verizon) acercándose a un escenario monopolista. Así, algunos consideran que este anuncio no tiene ningún fundamento técnico y se trata tan sólo de una acción para dar una imagen de falta de infraestructura y consolidar la idea de que la fusión permitiría una mayor solidez en este aspecto. 

En cualquiera de los casos, el empleo de Gestión de Tráfico está latente en el escenario Teleco internacional y sobre todo en los EEUU, donde cualquier evento al respecto produce una gran repercusión mediática. 

lunes, 1 de agosto de 2011

Uso razonable de Gestión de Tráfico

Acerca de "La Gestión de Tráfico" se ha visto que su uso, teniendo en cuenta condiciones cómo "Ancho de banda, latencia y jitter" disponibles, puede resultar beneficiosa. Pero el problema está en determinar qué se considera una Gestión de Tráfico razonable y que no sea discriminatoria ni injusta. Los defensores de la Net Neutrality en su posición mas extrema abogan por un Internet en el que todos los paquetes sean tratados por igual, sin distinción de ningún tipo, no admitiendo ningún tipo de gestión. En el otro extremo se encuentra la Gestión de Tráfico en la que todo puede ser controlado y administrado sin ninguna condición (esto podría dar lugar a situaciones anticompetitivas donde, por ejemplo, un ISP pudiese llegar a bloquear el tráfico de otro ISP).


El esquema anterior muestra una buena aproximación de las posibles aplicaciones que se le puede dar a la Gestión de Tráfico. Cómo se puede apreciar, los usos posibles pueden ser beneficiosos cómo por ejemplo el bloqueo de aplicaciones maliciosas o prestación de mejor servicio para aplicaciones más vulnerables cómo VoIP, streaming, etc. No obstante, otras aplicaciones posibles serían degradación de tráfico P2P (ver "El tráfico P2P") o la priorización de algunos tipos de servicios según acuerdos comerciales (por ejemplo, el ISP A tiene un acuerdo con Skype y permite su tráfico sin problemas, mientras que el ISP B no lo tiene y lo degrada). Otro modelo podría ser el que se muestra en el post "La Neutralidad de Red", dónde se aplicacarían tarifas diferenciadas según los servicios consumidos. Cómo se puede apreciar las posibilidades que ofrece la Gestión de Tráfico son varias.

Ahora bien, qué es lo que se considera aceptable? Evidentemente esto dependerá de quien lo considere, no tendrá la misma opinión un usuario que un operador de red. Una buena aproximación de lo que debería ser una buena Gestión de Red debería cumplir con los siguientes criterios:

  • Particularizada. Se debe adaptar a situaciones de la red teniendo en cuenta factores cómo picos de consumo, densidad de suscriptores, limitaciones propias del medio de acceso, etc.
  • Proporcional. Debería aplicarse en la medida en que se produzca congestión en la red para evitar situaciones abusivas, llegando incluso al modelo 'best effort' si no exsite congestión.
  • Equitativa. Se debería llevar a cabo de forma justa, sin llegar a privar a ningún cliente del servicio ni llegando a situaciones dónde un cliente tenga prioridad sobre otro.
  • Necesidad técnica. Se debería planificar y diseñar una política de gestión en función de las necesidades técnicas que se den en la red en concreto.
  • Transparente. El operador o ISP debería dar a conocer que medidas se toman y en que condiciones de modo que el cliente esté informado correctamente.
  • Legítima. Evidentemente cualquier técnica de gestión debe cumplir con la legislación vigente en la zona geográfica en la que se aplique.
  • Auditable. Para evitar problemas de cualquier índole los operadores e ISPs deberían de ser capaces de demostrar que la aplicación de Gestión de Tráfico responde a necesidades reales y que las medidas resultan efectivas.
El uso de técnicas de gestión bien llevado puede contribuir a un mejor Internet, siempre que esto no atente contra las bases sobre las que se ha sustentado su crecimiento. Internet ha llegado a ser lo que és precisamente gracias a estas bases que lo hacen libre y abierto, dónde todo tiene cabida. La tecnología disponible a día de hoy es capaz de detectar y gestionar el tráfico según las aplicaciones y necesidades asignando la calidad más apropiada y contribyendo a una mejora de la QoE (Quality of Experience), además de detectar posibles ataques e intrusiones.

Para ello muchas veces se hace uso de "Deep Packet Inspection (DPI)" y/o análisi heurístico precisamente porqué muchas apliaciones enmascaran el tipo de tráfico que se transporta y porqué violan algunas recomendaciones o normas de Internet. Pero esto ya es otro tema, que se analizará en el próximo post “Violación de recomendaciones y normas en Internet”.

miércoles, 27 de julio de 2011

La Comisión Europa y el BEREC en la Net Neutrality

En este blog ya se ha hablado de la situación que hay en términos legislativos en EEUU (ver "FCC vs. Comcast") en cuanto a la Neutralidad de Red, y también se ha visto que en algunos países Europeos han habido acciones a favor de legislar la Net Neutrality. En concreto se ha hablado del caso de Holanda (ver "Holanda, pionera en Europa") y de España (ver "España se mueve a favor de la Neutralidad de Red"). Ahora veremos que patrones ha marcado la Comisión Europea en este campo.

En primer lugar, aclarar que la Comisión Europea es uno de los tres pilares fundamentales del marco institucional, junto con el Parlamento Europeo y el Consejo Europeo. Sus funciones son las equivalentes al poder ejecutivo, es decir, lleva a cabo las tareas de "gobierno europeo". Pues bien, en el ámbito de las Telecomunicaciones, este órgano ha sido el encargado de garantizar ciertos derechos a los usuarios. Haciendo un poco de historia, fue por decisión de la Comisión que se llevara a cabo la liberalización de las Telecomunicaciones en los países miembros, acto que culminó en 1998. A partir de aquel entonces se fueron marcando unas ciertas pautas.

El 7 de Marzo de 2002 se aprobaron  un conjunto de disposiciones que sin pretensión de entrar en grandes detalles, se listan a continuación:
  • 2002/21/CE (Directiva marco): Directiva relativa a un marco regulador común de las redes y los servicios de comunicaciones electrónicas. 
  • 2002/20/CE (Directiva de autorización): Directiva relativa a la autorización de redes y servicios de comunicaciones electrónicas.
  • 2002/19/CE (Directiva de acceso): Directiva relativa al acceso a las redes de comunicaciones electrónicas y recursos asociados, y a su interconexión.
  • 2002/22/CE (Directiva de servicio universal): Directiva relativa al servicio universal. 
  • 2002/58/CE (Directiva de intimidad y comunicaciones electrónicas): Directiva relativa al tratamiento de los datos personales.
Se establecieron así las bases para una reglamentación armonizada, para una mayor competencia libre de influencias externas, y en general para una mejora en el acceso y servicio de contenidos de cara al usuario.


Años mas tarde, el 25 de Noviembre de 2009 se aprobaron reformas respecto al marco comunitario con objeto de ampliar los derechos de los consumidores y de actualizar la regulación de las telecomunicaciones a la realidad del mercado. La fecha límite para la aplicación por parte de los estados miembro es el 25 de Mayo de 2011. En concreto, respecto al tema que nos ocupa, se establecen las Directivas:
  • 2009/140/CE (Directiva de mejor regulación), por la que se modifican las citadas anteriormente: 2002/21/CE, 2002/19/CE, 2002/20/CE.
  • 2009/136/CE (Directiva de los derechos de los ciudadanos), por la que se modifican las citadas anteriormente: 2002/22/CE, 2002/58/CE.
Los puntos relevantes de las citadas Directivas en cuanto a net neutrality se basan sobretodo en la transparencia y en la posibilidad de establecer obligaciones por parte de las ANR en relación a la calidad mínima del servicio. En este aspecto, se pueden extraer tres ejes principales de acción.
  • Las ANR (Agencias Nacionales Regulatorias) fomentarán los intereses de los ciudadanos de la Unión Europea “promoviendo la capacidad de los usuarios finales para acceder y distribuir la información o utilizar las aplicaciones y los servicios de su elección.” 
  • En materia de transparencia e información, el contenido mínimo de los contratos habrán de incluir expresamente los siguientes datos: información sobre los límites al acceso o utilización de servicios y aplicaciones, niveles mínimos de calidad de los servicios, medidas para la gestión del tráfico y restricciones relativas a terminales. Además, las ANR tendrán la competencia de obligar a los operadores e ISPs a: informar a los abonados sobre las limitaciones al acceso o utilización de servicios y aplicaciones y de proporcionar información sobre procedimientos de gestión de tráfico.
  • Las ANR tendrán poderes para establecer requisitos mínimos de QoS (Quality of Service) a las empresas proveedoras de redes públicas de comunicaciones, si bien, informando debidamente a la Comisión y al BEREC y procurando que no afecte de forma negativa, aplicando requisitos coherentes. Esta previsión es la que más controversia y discusiones suscitó durante la tramitación legislativa del nuevo marco.
Se establece que si es necesario adoptar medidas de Gestión de Táfico, estas deben ser adecuadas y proporcionales (ver "Uso razonable de Gestión de Tráfico"). La regulación de las mencionadas obligaciones de información y transparencia dan a entender que, en principio, no queda prohibido que los operadores establezcan condiciones que limiten el acceso o la utilización de servicios y aplicaciones. Cabe remarcar que el texto citado no proclama expresamente el principio de Net Neutrality como tal. Se denota una cierta preocupación en relación con los efectos sobre la competencia de la transmisión de contenidos y, en ese sentido, se añade expresamente en lo relativo a los objetivos y principios de la regulación, que el fomento de la competencia incluya “la transmisión de contenidos”.

Además de todas estas medidas, en ese mismo año se lleva a cabo la instauración de un Organismo de Reguladores Europeos de las Comunicaciones Electrónicas (ORECE / BEREC) con la finalidad de reforzar la cooperación entre las ANRs y mejorar su colaboración con el resto de instituciones europeas.

El posicionamiento posterior ha sido el de esperar a la aplicación de las Directivas comentadas actualmente, que tenían como fecha límite el 25 de Mayo de 2011. Realmente la actitud es la de esperar a ver que sucede, tanto de puertas adentro cómo de en el resto del mundo para así actuar en la justa medida. A finales de 2011 se espera la publicación de un informe que evalúe la implantación de estas medidas, esperaremos a ver que sucede.

lunes, 25 de julio de 2011

Ancho de banda, latencia y jitter

Al hablar de "La Gestión de Tráfico" se ha resaltado que emplearla no tiene porque ser algo nocivo, es más, una buena gestión puede mejorar la QoE (Quality of Experience) de los usuarios si se hace administrando correctamente los recursos disponibles. Para ello, existen algunos conceptos que se deben conocer a la hora de tratar los tipos de tráfico, ya que dependiendo de estos será mejor aplicar una prioridad u otra.
  • Ancho de banda: El ancho de banda es la cantidad de unidades de información que se puede descargar en un determinado tiempo. Es decir, 10 Mbps significa que en un segundo podemos recibir 10 Mbits de información (esto son algo mas de 10.000.000 de bits). Un bit es la unidad mínima de información en el mundo binario, y su valor es 0 o 1. Cabe distinguirlo de un byte, que es el conjunto de 8 bits, ya que a veces se juega con la terminología pudiendo confundir al usuario. Así, no es lo mismo descargar un fichero a 100 Mbps (mega bits por segundo), o descargarlo a 100 MB/s (mega bytes por segundo). En el segundo caso lo haríamos a una velocidad 8 veces mayor que en el primero. Obviamente los ISPs ofrecen sus tarifas en bits porqué así el total parece mayor (no queda igual decir que tienes una conexión de 128 "k's" (en bytes) que una de 1 "mega" (en bits), aún y siendo exactamente lo mismo.
  • Latencia: Tal y cómo vimos en el post "Cómo funciona Internet?", los datos se envían por la red en paquetes que contienen una cabecera con la información de que camino se debe seguir, entre muchas otras cosas. La lectura de esta cabecera y el procesamiento de datos no es algo trivial y lleva algo de tiempo hacerlo. La latencia es la suma de todos estos tiempos, es decir, el tiempo que pasa desde que se ha enviado un paquete en el destino hasta que llega al receptor.
  • Jitter: El camino que puede seguir un paquete entre un mismo transmisor y receptor puede variar en función de ciertos parámetros. A causa de esto y de otros factores, el retardo que puede sufrir un paquete (latencia) en relación a otro enviado inmediatamente después, puede no ser el mismo. Esto es el jitter, la variación de retardos entre paquetes de la misma comunicación.
Sabiendo esto, podemos entrever que para descargar ficheros pesados, ya sea bien por descarga directa o mediante P2P (ver "El tráfico P2P"), lo que nos interesa es que el ancho de banda sea elevado para acabar así pronto con la descarga. Si hay una latencia o jitter elevados no será nocivo en exceso ya que no importa si recibimos un paquete antes o después que otro, ni si tarda entre que se envía y se recibe (este tiempo será mucho menor que el tiempo total de transferencia del archivo).


Por contra, para aplicaciones cómo VoIP o juegos multimedia pasará justo lo contrario. No se necesita un ancho de banda elevado, pero para una buena QoE se precisa una latencia y jitter acotado para que el usuario lo perciba a tiempo real (una persona es capaz de distinguir hasta unos 200 ms de latencia, para valores menores no se percibe).

Estos dos casos muestran los dos extremos mas claros de que hay ciertos tipos de gestión que no parecen perjudicar demasiado, de hecho son prácticamente excluyentes. Así, priorizar paquetes que transportan VoIP o cualquier servicio a tiempo real, disminuye la latencia de estos con lo que la QoE mejora. Este hecho pasará prácticamente desapercibido para una descarga pesada, porqué retardar un poco un paquete de esa transferencia no afectará demasiado. Este ejemplo es muy simplificado, pero viene a decir que una gestión bien llevada puede resultar beneficiosa para una gran parte de los usuarios.

domingo, 24 de julio de 2011

España se mueve a favor de la Neutralidad de Red

Parece ser que España vas a ser referente en lo que a Neutralidad de Red se refiere. El pasado 19 de Julio de 2011 el grupo socialista presentó una serie de propuestas por las que se enmendaría, si estas son aprobadas, la Ley General de Telecomunicaciones. Podéis acceder a las propuestas del PSOE (aquí), y a la totalidad de propuestas de todos los grupos (aquí).

En estas propuestas se declaran dos derechos para los usuarios, uno que recogería los principios de Neutralidad de Red y otro que garantizaría la privacidad de las comunicaciones de datos. En cuanto a la Neutralidad de Red se especifica que el tráfico no podría ser "modificado, bloqueado, desviado, priorizado o retrasado, en función del tipo de contenido, del origen del mismo, del protocolo o de la aplicación utilizada". También se establecería "el derecho a acceder a contenidos, a ejecutar aplicaciones y a utilizar servicios de su elección, así como a conectar dispositivos a la Red sin más restricción a su interoperabilidad que aquella que establezcan las leyes."

Además se tocan puntos relativos a la información de los usuarios (con fin de adaptarlo a las directivas ordenadas a nivel europeo por la Comisión, ver "La Comisión Europa y el BEREC en la Net Neutrality"). También se añaden los principios sancionadores, posibles compensaciones por degradación de servicios y algunos otros puntos interesantes. En definitiva, se defiende que Internet es un espacio público y que cómo tal nadie debe tener derecho a acotarlo ni limitarlo y que todo el mundo debe poder tener acceso a él. En cuanto a la Gestión de Tráfico, remarcar que no se prohíbe siempre que no se produzca de forma arbitraria.


Si se aprobasen estas medidas España pasaría a ser el tercer país del mundo en adoptar la Neutralidad de Red en su legilación. Previamente lo han hecho Chile (ver "Chile se estrena en Net Neutrality") y Holanda (ver "Holanda, pionera en Europa"). Veremos cómo evoluciona el asunto y cómo reaccionan los agentes involucrados cómo por ejemplo Telefónica (su presidente Cesar Alierta hizo unas declaraciones en las que se vislumbraban intenciones contrarias a la Net Neutrality). Seguro que el tema dará bastante que hablar en las próximas semanas.

Holanda, pionera en Europa


Holanda ha sido el segundo país del mundo (el primero fue Chile, ver "Chile se estrena en Net Neutrality") y el primero en Europa que ha redactado una modificación de su legislación para incluir los principios de la Neutralidad de Red. En Europa el asunto se esta tratando a nivel común, habiéndose sentado unas bases en lo que se refiere a la Gestión de Tráfico y garantías de usuario, para más información leer "La Comisión Europa y el BEREC en la Net Neutrality".

En el caso concreto de Holanda, cómo país referente en muchas adopciones de políticas pioneras, se ha ido un poco más lejos y se han aplicado unas normas que según algunos son incluso demasiado estrictas. Así, el 22 de Junio de 2011 se aprobó por en el Parlamento y por amplia mayoría la prohibición de la diferenciación de servicios en Internet. Este hecho ha venido propiciado por las intenciones de algunos ISPs de tarificar por separado servicios cómo Skype (servicio de VoIP) o WhatsApp (mensajería a través de Internet). La medida levantó las protestas de la compañía líder en el mercado holandés, KPN, y de las divisiones de T-Mobile y Vodafone en este país.



La modificación de la Ley de Telecomunicaciones define las siguientes directivas:
  1. Los proveedores de redes públicas de comunicaciones electrónicas a través de los cuales se ofrecen servicios de Internet y los proveedores de servicios de Internet, no podrán obstaculizar o retrasar los servicios o aplicaciones en Internet, excepto en la medida en que los servicios o aplicaciones se vean obstaculizados o demorados, cuando:
    a) se combata la reducción de congestión, tratando por igual todo el tráfico;
    b) por motivos de integridad y seguridad de la red, proveedor de servicios o usuario final;
    c) se transmitan comunicaciones no consentidas por un usuario, siempre que el usuario final antes de autorización expresa, o
    d) en virtud de una disposición legal u orden judicial.
  1. En caso de violación del apartado b) del apartado anterior por parte de dispositivo de usuario, el proveedor antes de tomar una medida de restricción o retraso en la comunicación, deberá informar al usuario y darle la posibilidad de detener dicha infracción.  
  1. Los proveedores de servicios de acceso a Internet no deben modificar el precio de las tarifas de acceso a Internet dependiendo de los servicios o aplicaciones que sean ofrecidos o utilizados.
  1. En virtud de Orden del Consejo se podrán establecer normas específicas en relación con lo dispuesto en el párrafo primero y tercero. 
  1. En virtud de una orden administrativa para prevenir la degradación del servicio y la obstaculización o ralentización del tráfico en las redes de comunicaciones electrónicas públicas se deben detallar los requisitos mínimos para la calidad de las comunicaciones electrónicas públicas por parte de los proveedores de redes públicas de comunicaciones electrónicas. 
Se puede extraer de la misma propuesta de Ley varios aspectos relevantes. Se afirma que “los proveedores de servicios de Internet tenderán cada vez más a tomar medidas para bloquear o retrasar Internet, ya sea por iniciativa propia o bajo la presión de terceros, a menos que esté prohibido.”   Bajo esta argumentación, “la enmienda tiene por objeto facilitar la elección y la libertad de expresión en Internet para los usuarios finales.  Internet no está destinado a la reserva de ancho de banda para servicios basados ​​en IP ni a la prohibición de ningún servicio o aplicación en Internet. ” Cómo se puede observar, se prohíbe la diferenciación de servicios que reserven ancho de banda, lo que cierra la puerta a servicios del tipo Triple Play (telefonía + acceso a Internet + TVIP - televisión por IP - ).

Es importante resaltar también que “los proveedores en conformidad con este artículo están autorizados para ofrecer distintos servicios a través de Internet. Esto permite al proveedor ofrecer una suscripción separada para llamadas VoIP móviles en lugar del servicio de telefonía móvil regular (por ejemplo, suscripción de teléfono VoIP móvil).” De este último apartado debemos entender que si que se podrá diferenciar en tráfico IP siempre que este no sea de Internet, esto es porqué LTE (el estándar para 4G, ver "LTE, 4G y tratamiento de QoS") gestionará todos los servicios, voz incluida, mediante el protocolo IP.


Veremos cómo se lleva a cabo la aplicación de estas nuevas medidas y cómo evoluciona el tema en el resto de países europeos, dónde si bien han habido ciertos signos de interés por sentar unas bases mediante directrices y recomendaciones, todavía no se han llevado propuestas a voto.

sábado, 23 de julio de 2011

El tráfico P2P

Se ha comentado brevemente que el tráfico P2P (peer-to-peer) ha sido y sigue siendo uno de los tipos de datos más conflictivos de Internet, veamos de que se trata. El tráfico P2P actualmente representa cerca de un 23% del tráfico de Internet, se lleva a cabo entre usuarios y en según que tipo de protocolo P2P esta totalmente descentralizado (en algunos otros si que se apoya algún servidor). A diferencia del modelo cliente-servidor dónde toda comunicación pasa por un punto centralizado (generalmente el proveedor de servicios o contenidos), en P2P el usuario es a la vez consumidor y proveedor. Recomiendo la lectura del post "La Gestión de Tráfico" dónde se habla de cómo este tipo de tráfico fue uno de los principales causantes de iniciar el debate de la Net Neutrality.

En P2P el ancho de banda disponible es la contribución de los anchos de banda de los diferentes usuarios. Esto implica que la computadora de un usuario realmente se comporta cómo un nodo de red más pudiendo actuar como cliente y servidor a la vez. Debido a la persecución contra los protocolos de P2P por parte de algunos ISPs o sistemas de seguridad de usuario ha llevado a sus diseñadores a tener que configurar protocolos muy complejos, con técnicas como tener un sistema dinámico de puertos o incluso cifrando el tráfico para no ser detectados. De aquí nace el análisis heurístico (ver "Análisis heurístico") que intenta detectar tráfico P2P a través de los patrones de la comunicación, ya que mediante DPI le es imposible determinarlo debido a las técnicas. Para una mejor comprensión de cómo actúa el tráfico P2P, leer el post "Cómo funciona Internet? (II)".


Sobre este tipo de estructura se han desarrollado diferentes tipos de aplicaciones que intentan aprovechar un modelo de red descentralizado que bien empelado ofrece una robustez y flexibilidad que no se da en el modelo cliente-servidor. Aplicaciones bien conocidas de intercambio de ficheros sobre P2P incluyen: eDonkey, BitTorrent, Ares o Napster. A estas se debe añadir Skype, el conocido servicio de VoIP y que también trabaja sobre P2P .

Los principales motivos que emplean los detractores de este tipo de red se fundamentan básicamente en que:
  • la carga de tráfico suele ser elevada y constante, llevando a problemas de congestión
  • los archivos que se comparten suelen violar derechos de copyright

En el asunto que nos ocupa el primer punto es el que causa problemas a los ISPs. El tipo de consumo que suele darse en P2P genera grandes volúmenes de tráfico que además suele ser constante. El hecho de que sean los propios usuarios los que generan tráfico hace que el enlace de subida UL (uplink) transporte mucha mas información que en el modelo cliente-servidor. El consumo de P2P se ve limitado por gran parte de las tecnologías de acceso ya que estas contienen al tráfico P2P gracias precisamente a que el ancho de banda de subida suele ser bastante menor que el de bajada, haciendo un cuello de botella. Los ISPs que mas congestión experimentan debido al P2P son los que tienen una enlace UL de gran capacidad (cosa que no suele suceder).

jueves, 21 de julio de 2011

FCC vs. Comcast

En EEUU es donde el debate de la Net Neutrality se ha vivido mas intensamente. Allí, a diferencia de lo que sucede en la mayor parte de Europa, no ha habido un monopolio en el sector de las Telecomunicaciones y existen varios ISP que lo hacen sobre línea telefónica y cable aproximadamente en la misma proporción, entre ellos Comcast. 

La FCC (Federal Communication Comission) es la entidad reguladora de las comunicaciones eléctronicas en los EEUU y elaboró la ‘Internet Policy Statement’, que se publicó el 5 de Agosto de 2005 y que recoge cuatro derechos fundamentales que pretendian “preservar y promover el carácter dinámico y abierto de Internet, así como el mercado de las Telecomunicaciones; fomentar la creación, adopción y utilización de contenidos de Internet y asegurar que sus consumidores se beneficien de la innovación creada por la competencia.” 

Los cuatro principios adoptados fueron:

  • Los consumidores tienen derecho a poder acceder a los contenidos legales de Internet de su elección.
  • Los consumidores tienen derecho a ejecutar aplicaciones y servicios que deseen, dentro de los límites de seguridad que imponga su Estado.
  • Los consumidores tienen derecho a conectar los dispositivos legales que deseen, siempre que no dañen la red.
  • Los consumidores tienen derecho a elegir en competencia entre proveedores de red, proveedores de aplicaciones y servicios, y proveedores de contenido.

Comcast ofrece Internet (además de otros servicios cómo telefonía digital o TV)  en gran parte de los EEUU mediante cable. En 2007 grupos de consumidores denunciaron ante la FCC que Comcast estaba haciendo uso de técnicas de Gestión de Tráfico para interrumpir y degradar el tráfico P2P  en su red (en especial el tráfico de la aplicación BitTorrent). Lo llevaban a cabo mediante equipos fabricados por Sandvine, y la técnica que utilizaba consistía en enviar paquetes TCP RST haciendo creer a los extremos de la comunicación que el software en el otro lado no quería seguir la transferencia.

Aunque en principio la compañía negó rotundamente alguna relación con estos sucesos finalmente lo afirmaron y en Marzo de 2008 Comcast y BitTorrent acordaron trabajar juntos para gestionar de forma efectiva el tráfico en momentos de pico. No obstante, en Agosto de 2008, la FCC consideró que Comcast había cometido un delito por prácticas consideradas discriminatorias y contrarias a los principios de la ‘Internet Policy Statement’ y tomó medidas contra Comcast por impedir a sus consumidores acceder al contenido deseado. 


Finalmente, en 2010, la Corte de Apelaciones del Distrito de Columbia dictaminó que la FCC no tiene autoridad suficiente para obligar a los ISP’s a mantener sus redes abiertas a cualquier contenido. Este hecho, frenó considerablemente el progreso de los principios del Net Neutrality en los EEUU ya que a efectos prácticos se confirmó lo que muchos ya sabían, la FCC no disponía del refuerzo legal para hacer cumplir sus principios.

Bajo esta situación de falta de respaldo legal para hacer cumplir sus decisiones, la FCC adoptó el 21 de Diciembre de 2010 unas nuevas reglas.
  • Transparencia: Los proveedores de redes tanto fijas como móviles deben divulgar las prácticas de gestión, las características de funcionamiento y los términos y condiciones de sus servicios de acceso de banda ancha.
  • No bloqueo: Los proveedores de red fija no pueden bloquear ningún contenido legal, ni aplicaciones o servicios que no sean nocivos. Los proveedores móviles no pueden bloquear sitios web legítimos ni aplicaciones que compitan con sus servicios de voz o video.
  • No discriminación: Los proveedores de redes fijas no pueden discriminar de forma no razonable la transmisión de contenidos legales.
La FCC tiene esencialmente dos opciones básicas para avanzar en la Neutralidad de Red: se puede esperar a que el Congreso redacte un Proyecto de Ley a favor de la Neutralidad de la Red o se puede decidir la reclasificación de los servicios de banda ancha como de Telecomunicaciones, en lugar de como servicios de información, para tener autoridad regulatoria sobre ellos. 

Chile se estrena en Net Neutrality

Como se ha ido viendo en el blog, la Neutralidad de Red es un tema que esta candente y del que muchos sectores están atentos. Uno de estos sectores son los propios Estados o entidades reguladoras, que generalmente se encargan de velar por un mercado competitivo y sin monopolios. En algunos países la situación ha llegado a tal punto que se ha tenido que intervenir por tal de preservar ciertas garantías para los usuarios. Este es el caso de Chile.

En Chile el 13 de Julio de 2010 se aprobó de forma unánime la modificación de su Ley de Telecomunicaciones, y el pasado 18 de Julio de 2011 se hizo oficial. Esto supone que es el primer país que ha modificado su legislación para regular y salvaguardar los derechos de los usuarios y las prácticas de los ISPs. Veamos que es lo que dice dicha legislación y dónde pone los limites.

Los operadores e ISPs:
  • No podrán arbitrariamente bloquear, interferir, discriminar, entorpecer ni restringir el derecho de cualquier usuario de Internet para utilizar, enviar, recibir u ofrecer cualquier contenido, aplicación o servicio legal a través de Internet, así como cualquier otro tipo de actividad o uso legal realizado a través de la red. En este sentido, deberán ofrecer a cada usuario un servicio de acceso a Internet o de conectividad al proveedor de acceso a Internet, según corresponda, que no distinga arbitrariamente contenidos, aplicaciones o servicios, basados en la fuente de origen o propiedad de éstos, habida cuenta de las distintas configuraciones de la conexión a Internet según el contrato vigente con los usuarios.
  • No podrán limitar el derecho de un usuario a incorporar o utilizar cualquier clase de instrumentos, dispositivos o aparatos en la red, siempre que sean legales y que los mismos no dañen o perjudiquen la red o la calidad del servicio.
  • Deberán ofrecer, a expensas de los usuarios que lo soliciten, servicios de controles parentales para contenidos que atenten contra la ley, la moral o las buenas costumbres, siempre y cuando el usuario reciba información por adelantado y de manera clara y precisa respecto del alcance de tales servicios.
  • Deberán publicar en su sitio web, toda la información relativa a las características del acceso a Internet ofrecido, su velocidad, calidad del enlace, diferenciando entre las conexiones nacionales e internacionales, así como la naturaleza y garantías del servicio.
  • Un reglamento establecerá las condiciones mínimas que deberán cumplir los prestadores de servicio de acceso a Internet en cuanto a la obligatoriedad de mantener publicada y actualizada en su sitio web información relativa al nivel del servicio contratado, que incorpore criterios de direccionamiento, velocidades de acceso disponibles, nivel de agregación o sobreventa del enlace, disponibilidad del enlace en tiempo, y tiempos de reposición de servicio, uso de herramientas de administración o gestión de tráfico, así como también aquellos elementos propios del tipo de servicio ofrecido y que correspondan a estándares de calidad internacionales de aplicación general.

En relación a la Gestión de Tráfico los ISP’s podrán “tomar las medidas o acciones necesarias para la gestión de tráfico y administración de red, en el exclusivo ámbito de la actividad que les ha sido autorizada, siempre que ello no tenga por objeto realizar acciones que afecten o puedan afectar la libre competencia” además de procurar “preservar la privacidad de los usuarios, la protección contra virus y la seguridad de la red".

Las infracciones a las obligaciones legales o reglamentarias asociadas a la implementación, operación y funcionamiento de la Neutralidad de Red que impidan, dificulten o de cualquier forma amenacen su desarrollo o el legítimo ejercicio de los derechos que de ella derivan, serán sancionables.


Como se puede observar se trata de una serie de medidas que garantizan la equidad y neutralidad en el trato del tráfico, dando posibilidad de Gestión de Tráfico siempre que no afecte a la competencia ni se discriminatoria.

El hecho de ser el primero en aplicar esta medida hace que también sea un conejillo de indias, lo cual puede dar ejemplo al resto de entidades reguladoras en todo el mundo. Esto puede ayudar a que se sienten las bases del grado de intervención que se debe tomar en cuanto a legislar la Neutralidad de Red, que no es de fácil determinación. El asunto más importante de todo esto es el de si se debe considerar Internet como un derecho o cómo un servicio, ya que en base a esta consideración las reglas de juego se pueden llevar a un lado u otro.

Mientras tanto, en EEUU y Europa se está esperando a ver cómo evoluciona el tema. En EEUU por falta de respaldo legislativo la FCC (Federal Communication Comision) no tiene atribuciones suficientes para hacer cumplir ninguna directiva (ver "FCC vs. Comcast") y en Europa se está esperando a que hayan motivos para intervenir, si es que los hay. De momento tan sólo Holanda ha movido ficha, al aprobar recientemente (22 de Junio de 2011) su Ley de Net Neutrality (ver "Holanda, pionera en Europa").

Veremos cómo evoluciona la aplicación y el cumplimiento de esta Ley, pero lo que parece estar claro es que la cosa tan solo acaba de empezar y que a la que se dan problemas de abuso o situaciones contrarias a la Neutralidad de Red la situación se va a acelerar, como ha pasado en Holanda.

miércoles, 20 de julio de 2011

La Gestión de Tráfico

En los albores de la era Internet, cuando nos conectábamos con módem mediante Dial-Up (es una especie de llamada de datos, que hacía unos ruiditos muy raros y molestos al conectar), las limitaciones de Internet eran básicamente debidas a la propia tecnologia de acceso. No se daban problemas de congestión debido a cómo se trataban los datos y por lo tanto la Gestión de Tráfico no se hacía necesaria. Cuando aparecieron las primeras conexiones de banda ancha como el ADSL la cosa empezó a animarse un poco, y comenzaron a surgir novedosas aplicaciones y servicios en Internet. 

Hasta aquel momento Internet se basaba en un modelo cliente-servidor, lo cual quiere decir que los datos se descargaban mayormente desde la red hacia el usuario, tanto es así que en la tecnología xDSL se diseñaron los enlaces para tal fin: un pequeño enlace de subida (Uplink, UL) y uno mucho mayor de bajada (Downlink, DL). Pero apareció el P2P (peer-to-peer) a principios del milenio para cambiar un poco las cosas (una aplicación que tuvo mucho éxito fue Napster, el servicio para compartición-descarga de música). No se pretende explicar qué es el P2P en este post (ver "El tráfico P2P"), pero tan sólo comentar que es un tipo de red en la que la fuente de la información son los propios usuarios, y que en el caso más extremo está completamente descentralizado (sin servidores). Esto implicaba que los usuarios podían compartir datos en Internet, pero el diseño que se había hecho en las redes tipo cliente-servidor no la preparaba para este tráfico que a parte de utilizar mas DL también exigía más UL, siendo este último más crítico. 

Así, los ISPs comenzaron a experimentar problemas de congestión y algunos comenzaron a aplicar la Gestión de Tráfico, algo que hasta aquel entonces no se había hecho. Por abuso de lenguaje, con Gestión de Tráfico nos referimos a las técnicas que no tratan por igual a todos los paquetes, porqué Gestión de Tráfico cómo tal es cualquier estrategia que se siga para transferir datos. Esta técnica consiste en detectar que tipo de información contienen los paquetes IP y según lo que contenga darle mas o menos prioridad, retardarlo o incluso eliminarlo. Para saber que tipo de infromación lleva el paquete, en aquel entonces, se hacía una inpección "suave" de paquetes (SPI, Stateful/Shallow Packet Inspection), que consiste en identificar el 5-tuple (dir. IP origen, dir. IP destino, puerto origen, puerto destino, protocolo). Este tipo de análisis es el que suelen realizar los firewall y consiste en aplicar unas reglas de tratamiento de paquetes según unas listas de acciones permitidas. Si un paquete se quiere colar por un puerto que no esté definido para ello, o si el protocolo no esta permitido, por ejemplo, el paquete es descartado o retardado.

Además de otros que se han ido dando sin llegar a ser muy extremos, es conocido el caso Comcast que se dio en 2007 en EEUU debido a que esta compañía prestadora de acceso por cable fue procesada por aplicar Gestión de Tráfico en su tráfico P2P (ver "FCC vs. Comcast").


Por aquel entonces Internet ya formaba parte de nuestras vidas, y ya comenzaban a circular grandes contenidos multimedia por la red. Esta situación nos ha devuelto al modelo cliente-servidor (el vídeo - 26% del tráfico de Internet - ha superado al tráfico P2P - 24% del tráfico de Internet - por primera vez en 10 años, según Cisco), pero el problema sigue latente ya que se demanda mucha capacidad para este tipo de servicios. El problema se acentúa en los accesos móviles debido las limitaciones físicas que se dan en este medio.

La capacidad de burlar los sistemas de detección SPI ha llevado a muchos fabricantes a implementar sistemas capaces de realizar "Deep Packet Inspection (DPI)" y análisis heurístico (de comportamiento). Esto supone una forma nueva de Gestión de Tráfico ya que con estas tecnologías el contenido de nuestros paquetes puede ser investigado exhaustivamente sin que apenas se note en la calidad de la comunicación. Por otro lado, cabe decir también que gracias a esta herramienta se pueden detectar ataques o malware.

Lo cierto es que una buena Gestión de Tráfico puede ser beneficiosa para un gran conjunto de usuarios ya que no todas las aplicaciones que corren sobre Internet exigen el mismo ancho de banda, latencia o jitter (ver "Ancho de banda, latencia y jitter") y también puede hacer que se brinde una cierta QoE (Quality of Experience). No obstante, este tipo de prácticas abren también la puerta a ciertas conductas por parte de los ISPs que pueden considerarse anticompetitivas, discriminatorias e injustificadas. El problema al que se enfrentan las entidades regulatorias es precisamente determinar cual es el nivel de Gestión que se puede aceptar, si es que se debe aceptar, y bajo que condiciones (ver "Uso razonable de Gestión de Tráfico"). En próximos posts veremos las medidas que se han tomado en algunos países y algunas acciones que han tomado ISPs en contra de la Neutralidad de Red.