Buscar en este blog

miércoles, 27 de julio de 2011

La Comisión Europa y el BEREC en la Net Neutrality

En este blog ya se ha hablado de la situación que hay en términos legislativos en EEUU (ver "FCC vs. Comcast") en cuanto a la Neutralidad de Red, y también se ha visto que en algunos países Europeos han habido acciones a favor de legislar la Net Neutrality. En concreto se ha hablado del caso de Holanda (ver "Holanda, pionera en Europa") y de España (ver "España se mueve a favor de la Neutralidad de Red"). Ahora veremos que patrones ha marcado la Comisión Europea en este campo.

En primer lugar, aclarar que la Comisión Europea es uno de los tres pilares fundamentales del marco institucional, junto con el Parlamento Europeo y el Consejo Europeo. Sus funciones son las equivalentes al poder ejecutivo, es decir, lleva a cabo las tareas de "gobierno europeo". Pues bien, en el ámbito de las Telecomunicaciones, este órgano ha sido el encargado de garantizar ciertos derechos a los usuarios. Haciendo un poco de historia, fue por decisión de la Comisión que se llevara a cabo la liberalización de las Telecomunicaciones en los países miembros, acto que culminó en 1998. A partir de aquel entonces se fueron marcando unas ciertas pautas.

El 7 de Marzo de 2002 se aprobaron  un conjunto de disposiciones que sin pretensión de entrar en grandes detalles, se listan a continuación:
  • 2002/21/CE (Directiva marco): Directiva relativa a un marco regulador común de las redes y los servicios de comunicaciones electrónicas. 
  • 2002/20/CE (Directiva de autorización): Directiva relativa a la autorización de redes y servicios de comunicaciones electrónicas.
  • 2002/19/CE (Directiva de acceso): Directiva relativa al acceso a las redes de comunicaciones electrónicas y recursos asociados, y a su interconexión.
  • 2002/22/CE (Directiva de servicio universal): Directiva relativa al servicio universal. 
  • 2002/58/CE (Directiva de intimidad y comunicaciones electrónicas): Directiva relativa al tratamiento de los datos personales.
Se establecieron así las bases para una reglamentación armonizada, para una mayor competencia libre de influencias externas, y en general para una mejora en el acceso y servicio de contenidos de cara al usuario.


Años mas tarde, el 25 de Noviembre de 2009 se aprobaron reformas respecto al marco comunitario con objeto de ampliar los derechos de los consumidores y de actualizar la regulación de las telecomunicaciones a la realidad del mercado. La fecha límite para la aplicación por parte de los estados miembro es el 25 de Mayo de 2011. En concreto, respecto al tema que nos ocupa, se establecen las Directivas:
  • 2009/140/CE (Directiva de mejor regulación), por la que se modifican las citadas anteriormente: 2002/21/CE, 2002/19/CE, 2002/20/CE.
  • 2009/136/CE (Directiva de los derechos de los ciudadanos), por la que se modifican las citadas anteriormente: 2002/22/CE, 2002/58/CE.
Los puntos relevantes de las citadas Directivas en cuanto a net neutrality se basan sobretodo en la transparencia y en la posibilidad de establecer obligaciones por parte de las ANR en relación a la calidad mínima del servicio. En este aspecto, se pueden extraer tres ejes principales de acción.
  • Las ANR (Agencias Nacionales Regulatorias) fomentarán los intereses de los ciudadanos de la Unión Europea “promoviendo la capacidad de los usuarios finales para acceder y distribuir la información o utilizar las aplicaciones y los servicios de su elección.” 
  • En materia de transparencia e información, el contenido mínimo de los contratos habrán de incluir expresamente los siguientes datos: información sobre los límites al acceso o utilización de servicios y aplicaciones, niveles mínimos de calidad de los servicios, medidas para la gestión del tráfico y restricciones relativas a terminales. Además, las ANR tendrán la competencia de obligar a los operadores e ISPs a: informar a los abonados sobre las limitaciones al acceso o utilización de servicios y aplicaciones y de proporcionar información sobre procedimientos de gestión de tráfico.
  • Las ANR tendrán poderes para establecer requisitos mínimos de QoS (Quality of Service) a las empresas proveedoras de redes públicas de comunicaciones, si bien, informando debidamente a la Comisión y al BEREC y procurando que no afecte de forma negativa, aplicando requisitos coherentes. Esta previsión es la que más controversia y discusiones suscitó durante la tramitación legislativa del nuevo marco.
Se establece que si es necesario adoptar medidas de Gestión de Táfico, estas deben ser adecuadas y proporcionales (ver "Uso razonable de Gestión de Tráfico"). La regulación de las mencionadas obligaciones de información y transparencia dan a entender que, en principio, no queda prohibido que los operadores establezcan condiciones que limiten el acceso o la utilización de servicios y aplicaciones. Cabe remarcar que el texto citado no proclama expresamente el principio de Net Neutrality como tal. Se denota una cierta preocupación en relación con los efectos sobre la competencia de la transmisión de contenidos y, en ese sentido, se añade expresamente en lo relativo a los objetivos y principios de la regulación, que el fomento de la competencia incluya “la transmisión de contenidos”.

Además de todas estas medidas, en ese mismo año se lleva a cabo la instauración de un Organismo de Reguladores Europeos de las Comunicaciones Electrónicas (ORECE / BEREC) con la finalidad de reforzar la cooperación entre las ANRs y mejorar su colaboración con el resto de instituciones europeas.

El posicionamiento posterior ha sido el de esperar a la aplicación de las Directivas comentadas actualmente, que tenían como fecha límite el 25 de Mayo de 2011. Realmente la actitud es la de esperar a ver que sucede, tanto de puertas adentro cómo de en el resto del mundo para así actuar en la justa medida. A finales de 2011 se espera la publicación de un informe que evalúe la implantación de estas medidas, esperaremos a ver que sucede.

lunes, 25 de julio de 2011

Ancho de banda, latencia y jitter

Al hablar de "La Gestión de Tráfico" se ha resaltado que emplearla no tiene porque ser algo nocivo, es más, una buena gestión puede mejorar la QoE (Quality of Experience) de los usuarios si se hace administrando correctamente los recursos disponibles. Para ello, existen algunos conceptos que se deben conocer a la hora de tratar los tipos de tráfico, ya que dependiendo de estos será mejor aplicar una prioridad u otra.
  • Ancho de banda: El ancho de banda es la cantidad de unidades de información que se puede descargar en un determinado tiempo. Es decir, 10 Mbps significa que en un segundo podemos recibir 10 Mbits de información (esto son algo mas de 10.000.000 de bits). Un bit es la unidad mínima de información en el mundo binario, y su valor es 0 o 1. Cabe distinguirlo de un byte, que es el conjunto de 8 bits, ya que a veces se juega con la terminología pudiendo confundir al usuario. Así, no es lo mismo descargar un fichero a 100 Mbps (mega bits por segundo), o descargarlo a 100 MB/s (mega bytes por segundo). En el segundo caso lo haríamos a una velocidad 8 veces mayor que en el primero. Obviamente los ISPs ofrecen sus tarifas en bits porqué así el total parece mayor (no queda igual decir que tienes una conexión de 128 "k's" (en bytes) que una de 1 "mega" (en bits), aún y siendo exactamente lo mismo.
  • Latencia: Tal y cómo vimos en el post "Cómo funciona Internet?", los datos se envían por la red en paquetes que contienen una cabecera con la información de que camino se debe seguir, entre muchas otras cosas. La lectura de esta cabecera y el procesamiento de datos no es algo trivial y lleva algo de tiempo hacerlo. La latencia es la suma de todos estos tiempos, es decir, el tiempo que pasa desde que se ha enviado un paquete en el destino hasta que llega al receptor.
  • Jitter: El camino que puede seguir un paquete entre un mismo transmisor y receptor puede variar en función de ciertos parámetros. A causa de esto y de otros factores, el retardo que puede sufrir un paquete (latencia) en relación a otro enviado inmediatamente después, puede no ser el mismo. Esto es el jitter, la variación de retardos entre paquetes de la misma comunicación.
Sabiendo esto, podemos entrever que para descargar ficheros pesados, ya sea bien por descarga directa o mediante P2P (ver "El tráfico P2P"), lo que nos interesa es que el ancho de banda sea elevado para acabar así pronto con la descarga. Si hay una latencia o jitter elevados no será nocivo en exceso ya que no importa si recibimos un paquete antes o después que otro, ni si tarda entre que se envía y se recibe (este tiempo será mucho menor que el tiempo total de transferencia del archivo).


Por contra, para aplicaciones cómo VoIP o juegos multimedia pasará justo lo contrario. No se necesita un ancho de banda elevado, pero para una buena QoE se precisa una latencia y jitter acotado para que el usuario lo perciba a tiempo real (una persona es capaz de distinguir hasta unos 200 ms de latencia, para valores menores no se percibe).

Estos dos casos muestran los dos extremos mas claros de que hay ciertos tipos de gestión que no parecen perjudicar demasiado, de hecho son prácticamente excluyentes. Así, priorizar paquetes que transportan VoIP o cualquier servicio a tiempo real, disminuye la latencia de estos con lo que la QoE mejora. Este hecho pasará prácticamente desapercibido para una descarga pesada, porqué retardar un poco un paquete de esa transferencia no afectará demasiado. Este ejemplo es muy simplificado, pero viene a decir que una gestión bien llevada puede resultar beneficiosa para una gran parte de los usuarios.

domingo, 24 de julio de 2011

España se mueve a favor de la Neutralidad de Red

Parece ser que España vas a ser referente en lo que a Neutralidad de Red se refiere. El pasado 19 de Julio de 2011 el grupo socialista presentó una serie de propuestas por las que se enmendaría, si estas son aprobadas, la Ley General de Telecomunicaciones. Podéis acceder a las propuestas del PSOE (aquí), y a la totalidad de propuestas de todos los grupos (aquí).

En estas propuestas se declaran dos derechos para los usuarios, uno que recogería los principios de Neutralidad de Red y otro que garantizaría la privacidad de las comunicaciones de datos. En cuanto a la Neutralidad de Red se especifica que el tráfico no podría ser "modificado, bloqueado, desviado, priorizado o retrasado, en función del tipo de contenido, del origen del mismo, del protocolo o de la aplicación utilizada". También se establecería "el derecho a acceder a contenidos, a ejecutar aplicaciones y a utilizar servicios de su elección, así como a conectar dispositivos a la Red sin más restricción a su interoperabilidad que aquella que establezcan las leyes."

Además se tocan puntos relativos a la información de los usuarios (con fin de adaptarlo a las directivas ordenadas a nivel europeo por la Comisión, ver "La Comisión Europa y el BEREC en la Net Neutrality"). También se añaden los principios sancionadores, posibles compensaciones por degradación de servicios y algunos otros puntos interesantes. En definitiva, se defiende que Internet es un espacio público y que cómo tal nadie debe tener derecho a acotarlo ni limitarlo y que todo el mundo debe poder tener acceso a él. En cuanto a la Gestión de Tráfico, remarcar que no se prohíbe siempre que no se produzca de forma arbitraria.


Si se aprobasen estas medidas España pasaría a ser el tercer país del mundo en adoptar la Neutralidad de Red en su legilación. Previamente lo han hecho Chile (ver "Chile se estrena en Net Neutrality") y Holanda (ver "Holanda, pionera en Europa"). Veremos cómo evoluciona el asunto y cómo reaccionan los agentes involucrados cómo por ejemplo Telefónica (su presidente Cesar Alierta hizo unas declaraciones en las que se vislumbraban intenciones contrarias a la Net Neutrality). Seguro que el tema dará bastante que hablar en las próximas semanas.

Holanda, pionera en Europa


Holanda ha sido el segundo país del mundo (el primero fue Chile, ver "Chile se estrena en Net Neutrality") y el primero en Europa que ha redactado una modificación de su legislación para incluir los principios de la Neutralidad de Red. En Europa el asunto se esta tratando a nivel común, habiéndose sentado unas bases en lo que se refiere a la Gestión de Tráfico y garantías de usuario, para más información leer "La Comisión Europa y el BEREC en la Net Neutrality".

En el caso concreto de Holanda, cómo país referente en muchas adopciones de políticas pioneras, se ha ido un poco más lejos y se han aplicado unas normas que según algunos son incluso demasiado estrictas. Así, el 22 de Junio de 2011 se aprobó por en el Parlamento y por amplia mayoría la prohibición de la diferenciación de servicios en Internet. Este hecho ha venido propiciado por las intenciones de algunos ISPs de tarificar por separado servicios cómo Skype (servicio de VoIP) o WhatsApp (mensajería a través de Internet). La medida levantó las protestas de la compañía líder en el mercado holandés, KPN, y de las divisiones de T-Mobile y Vodafone en este país.



La modificación de la Ley de Telecomunicaciones define las siguientes directivas:
  1. Los proveedores de redes públicas de comunicaciones electrónicas a través de los cuales se ofrecen servicios de Internet y los proveedores de servicios de Internet, no podrán obstaculizar o retrasar los servicios o aplicaciones en Internet, excepto en la medida en que los servicios o aplicaciones se vean obstaculizados o demorados, cuando:
    a) se combata la reducción de congestión, tratando por igual todo el tráfico;
    b) por motivos de integridad y seguridad de la red, proveedor de servicios o usuario final;
    c) se transmitan comunicaciones no consentidas por un usuario, siempre que el usuario final antes de autorización expresa, o
    d) en virtud de una disposición legal u orden judicial.
  1. En caso de violación del apartado b) del apartado anterior por parte de dispositivo de usuario, el proveedor antes de tomar una medida de restricción o retraso en la comunicación, deberá informar al usuario y darle la posibilidad de detener dicha infracción.  
  1. Los proveedores de servicios de acceso a Internet no deben modificar el precio de las tarifas de acceso a Internet dependiendo de los servicios o aplicaciones que sean ofrecidos o utilizados.
  1. En virtud de Orden del Consejo se podrán establecer normas específicas en relación con lo dispuesto en el párrafo primero y tercero. 
  1. En virtud de una orden administrativa para prevenir la degradación del servicio y la obstaculización o ralentización del tráfico en las redes de comunicaciones electrónicas públicas se deben detallar los requisitos mínimos para la calidad de las comunicaciones electrónicas públicas por parte de los proveedores de redes públicas de comunicaciones electrónicas. 
Se puede extraer de la misma propuesta de Ley varios aspectos relevantes. Se afirma que “los proveedores de servicios de Internet tenderán cada vez más a tomar medidas para bloquear o retrasar Internet, ya sea por iniciativa propia o bajo la presión de terceros, a menos que esté prohibido.”   Bajo esta argumentación, “la enmienda tiene por objeto facilitar la elección y la libertad de expresión en Internet para los usuarios finales.  Internet no está destinado a la reserva de ancho de banda para servicios basados ​​en IP ni a la prohibición de ningún servicio o aplicación en Internet. ” Cómo se puede observar, se prohíbe la diferenciación de servicios que reserven ancho de banda, lo que cierra la puerta a servicios del tipo Triple Play (telefonía + acceso a Internet + TVIP - televisión por IP - ).

Es importante resaltar también que “los proveedores en conformidad con este artículo están autorizados para ofrecer distintos servicios a través de Internet. Esto permite al proveedor ofrecer una suscripción separada para llamadas VoIP móviles en lugar del servicio de telefonía móvil regular (por ejemplo, suscripción de teléfono VoIP móvil).” De este último apartado debemos entender que si que se podrá diferenciar en tráfico IP siempre que este no sea de Internet, esto es porqué LTE (el estándar para 4G, ver "LTE, 4G y tratamiento de QoS") gestionará todos los servicios, voz incluida, mediante el protocolo IP.


Veremos cómo se lleva a cabo la aplicación de estas nuevas medidas y cómo evoluciona el tema en el resto de países europeos, dónde si bien han habido ciertos signos de interés por sentar unas bases mediante directrices y recomendaciones, todavía no se han llevado propuestas a voto.

sábado, 23 de julio de 2011

El tráfico P2P

Se ha comentado brevemente que el tráfico P2P (peer-to-peer) ha sido y sigue siendo uno de los tipos de datos más conflictivos de Internet, veamos de que se trata. El tráfico P2P actualmente representa cerca de un 23% del tráfico de Internet, se lleva a cabo entre usuarios y en según que tipo de protocolo P2P esta totalmente descentralizado (en algunos otros si que se apoya algún servidor). A diferencia del modelo cliente-servidor dónde toda comunicación pasa por un punto centralizado (generalmente el proveedor de servicios o contenidos), en P2P el usuario es a la vez consumidor y proveedor. Recomiendo la lectura del post "La Gestión de Tráfico" dónde se habla de cómo este tipo de tráfico fue uno de los principales causantes de iniciar el debate de la Net Neutrality.

En P2P el ancho de banda disponible es la contribución de los anchos de banda de los diferentes usuarios. Esto implica que la computadora de un usuario realmente se comporta cómo un nodo de red más pudiendo actuar como cliente y servidor a la vez. Debido a la persecución contra los protocolos de P2P por parte de algunos ISPs o sistemas de seguridad de usuario ha llevado a sus diseñadores a tener que configurar protocolos muy complejos, con técnicas como tener un sistema dinámico de puertos o incluso cifrando el tráfico para no ser detectados. De aquí nace el análisis heurístico (ver "Análisis heurístico") que intenta detectar tráfico P2P a través de los patrones de la comunicación, ya que mediante DPI le es imposible determinarlo debido a las técnicas. Para una mejor comprensión de cómo actúa el tráfico P2P, leer el post "Cómo funciona Internet? (II)".


Sobre este tipo de estructura se han desarrollado diferentes tipos de aplicaciones que intentan aprovechar un modelo de red descentralizado que bien empelado ofrece una robustez y flexibilidad que no se da en el modelo cliente-servidor. Aplicaciones bien conocidas de intercambio de ficheros sobre P2P incluyen: eDonkey, BitTorrent, Ares o Napster. A estas se debe añadir Skype, el conocido servicio de VoIP y que también trabaja sobre P2P .

Los principales motivos que emplean los detractores de este tipo de red se fundamentan básicamente en que:
  • la carga de tráfico suele ser elevada y constante, llevando a problemas de congestión
  • los archivos que se comparten suelen violar derechos de copyright

En el asunto que nos ocupa el primer punto es el que causa problemas a los ISPs. El tipo de consumo que suele darse en P2P genera grandes volúmenes de tráfico que además suele ser constante. El hecho de que sean los propios usuarios los que generan tráfico hace que el enlace de subida UL (uplink) transporte mucha mas información que en el modelo cliente-servidor. El consumo de P2P se ve limitado por gran parte de las tecnologías de acceso ya que estas contienen al tráfico P2P gracias precisamente a que el ancho de banda de subida suele ser bastante menor que el de bajada, haciendo un cuello de botella. Los ISPs que mas congestión experimentan debido al P2P son los que tienen una enlace UL de gran capacidad (cosa que no suele suceder).

jueves, 21 de julio de 2011

FCC vs. Comcast

En EEUU es donde el debate de la Net Neutrality se ha vivido mas intensamente. Allí, a diferencia de lo que sucede en la mayor parte de Europa, no ha habido un monopolio en el sector de las Telecomunicaciones y existen varios ISP que lo hacen sobre línea telefónica y cable aproximadamente en la misma proporción, entre ellos Comcast. 

La FCC (Federal Communication Comission) es la entidad reguladora de las comunicaciones eléctronicas en los EEUU y elaboró la ‘Internet Policy Statement’, que se publicó el 5 de Agosto de 2005 y que recoge cuatro derechos fundamentales que pretendian “preservar y promover el carácter dinámico y abierto de Internet, así como el mercado de las Telecomunicaciones; fomentar la creación, adopción y utilización de contenidos de Internet y asegurar que sus consumidores se beneficien de la innovación creada por la competencia.” 

Los cuatro principios adoptados fueron:

  • Los consumidores tienen derecho a poder acceder a los contenidos legales de Internet de su elección.
  • Los consumidores tienen derecho a ejecutar aplicaciones y servicios que deseen, dentro de los límites de seguridad que imponga su Estado.
  • Los consumidores tienen derecho a conectar los dispositivos legales que deseen, siempre que no dañen la red.
  • Los consumidores tienen derecho a elegir en competencia entre proveedores de red, proveedores de aplicaciones y servicios, y proveedores de contenido.

Comcast ofrece Internet (además de otros servicios cómo telefonía digital o TV)  en gran parte de los EEUU mediante cable. En 2007 grupos de consumidores denunciaron ante la FCC que Comcast estaba haciendo uso de técnicas de Gestión de Tráfico para interrumpir y degradar el tráfico P2P  en su red (en especial el tráfico de la aplicación BitTorrent). Lo llevaban a cabo mediante equipos fabricados por Sandvine, y la técnica que utilizaba consistía en enviar paquetes TCP RST haciendo creer a los extremos de la comunicación que el software en el otro lado no quería seguir la transferencia.

Aunque en principio la compañía negó rotundamente alguna relación con estos sucesos finalmente lo afirmaron y en Marzo de 2008 Comcast y BitTorrent acordaron trabajar juntos para gestionar de forma efectiva el tráfico en momentos de pico. No obstante, en Agosto de 2008, la FCC consideró que Comcast había cometido un delito por prácticas consideradas discriminatorias y contrarias a los principios de la ‘Internet Policy Statement’ y tomó medidas contra Comcast por impedir a sus consumidores acceder al contenido deseado. 


Finalmente, en 2010, la Corte de Apelaciones del Distrito de Columbia dictaminó que la FCC no tiene autoridad suficiente para obligar a los ISP’s a mantener sus redes abiertas a cualquier contenido. Este hecho, frenó considerablemente el progreso de los principios del Net Neutrality en los EEUU ya que a efectos prácticos se confirmó lo que muchos ya sabían, la FCC no disponía del refuerzo legal para hacer cumplir sus principios.

Bajo esta situación de falta de respaldo legal para hacer cumplir sus decisiones, la FCC adoptó el 21 de Diciembre de 2010 unas nuevas reglas.
  • Transparencia: Los proveedores de redes tanto fijas como móviles deben divulgar las prácticas de gestión, las características de funcionamiento y los términos y condiciones de sus servicios de acceso de banda ancha.
  • No bloqueo: Los proveedores de red fija no pueden bloquear ningún contenido legal, ni aplicaciones o servicios que no sean nocivos. Los proveedores móviles no pueden bloquear sitios web legítimos ni aplicaciones que compitan con sus servicios de voz o video.
  • No discriminación: Los proveedores de redes fijas no pueden discriminar de forma no razonable la transmisión de contenidos legales.
La FCC tiene esencialmente dos opciones básicas para avanzar en la Neutralidad de Red: se puede esperar a que el Congreso redacte un Proyecto de Ley a favor de la Neutralidad de la Red o se puede decidir la reclasificación de los servicios de banda ancha como de Telecomunicaciones, en lugar de como servicios de información, para tener autoridad regulatoria sobre ellos. 

Chile se estrena en Net Neutrality

Como se ha ido viendo en el blog, la Neutralidad de Red es un tema que esta candente y del que muchos sectores están atentos. Uno de estos sectores son los propios Estados o entidades reguladoras, que generalmente se encargan de velar por un mercado competitivo y sin monopolios. En algunos países la situación ha llegado a tal punto que se ha tenido que intervenir por tal de preservar ciertas garantías para los usuarios. Este es el caso de Chile.

En Chile el 13 de Julio de 2010 se aprobó de forma unánime la modificación de su Ley de Telecomunicaciones, y el pasado 18 de Julio de 2011 se hizo oficial. Esto supone que es el primer país que ha modificado su legislación para regular y salvaguardar los derechos de los usuarios y las prácticas de los ISPs. Veamos que es lo que dice dicha legislación y dónde pone los limites.

Los operadores e ISPs:
  • No podrán arbitrariamente bloquear, interferir, discriminar, entorpecer ni restringir el derecho de cualquier usuario de Internet para utilizar, enviar, recibir u ofrecer cualquier contenido, aplicación o servicio legal a través de Internet, así como cualquier otro tipo de actividad o uso legal realizado a través de la red. En este sentido, deberán ofrecer a cada usuario un servicio de acceso a Internet o de conectividad al proveedor de acceso a Internet, según corresponda, que no distinga arbitrariamente contenidos, aplicaciones o servicios, basados en la fuente de origen o propiedad de éstos, habida cuenta de las distintas configuraciones de la conexión a Internet según el contrato vigente con los usuarios.
  • No podrán limitar el derecho de un usuario a incorporar o utilizar cualquier clase de instrumentos, dispositivos o aparatos en la red, siempre que sean legales y que los mismos no dañen o perjudiquen la red o la calidad del servicio.
  • Deberán ofrecer, a expensas de los usuarios que lo soliciten, servicios de controles parentales para contenidos que atenten contra la ley, la moral o las buenas costumbres, siempre y cuando el usuario reciba información por adelantado y de manera clara y precisa respecto del alcance de tales servicios.
  • Deberán publicar en su sitio web, toda la información relativa a las características del acceso a Internet ofrecido, su velocidad, calidad del enlace, diferenciando entre las conexiones nacionales e internacionales, así como la naturaleza y garantías del servicio.
  • Un reglamento establecerá las condiciones mínimas que deberán cumplir los prestadores de servicio de acceso a Internet en cuanto a la obligatoriedad de mantener publicada y actualizada en su sitio web información relativa al nivel del servicio contratado, que incorpore criterios de direccionamiento, velocidades de acceso disponibles, nivel de agregación o sobreventa del enlace, disponibilidad del enlace en tiempo, y tiempos de reposición de servicio, uso de herramientas de administración o gestión de tráfico, así como también aquellos elementos propios del tipo de servicio ofrecido y que correspondan a estándares de calidad internacionales de aplicación general.

En relación a la Gestión de Tráfico los ISP’s podrán “tomar las medidas o acciones necesarias para la gestión de tráfico y administración de red, en el exclusivo ámbito de la actividad que les ha sido autorizada, siempre que ello no tenga por objeto realizar acciones que afecten o puedan afectar la libre competencia” además de procurar “preservar la privacidad de los usuarios, la protección contra virus y la seguridad de la red".

Las infracciones a las obligaciones legales o reglamentarias asociadas a la implementación, operación y funcionamiento de la Neutralidad de Red que impidan, dificulten o de cualquier forma amenacen su desarrollo o el legítimo ejercicio de los derechos que de ella derivan, serán sancionables.


Como se puede observar se trata de una serie de medidas que garantizan la equidad y neutralidad en el trato del tráfico, dando posibilidad de Gestión de Tráfico siempre que no afecte a la competencia ni se discriminatoria.

El hecho de ser el primero en aplicar esta medida hace que también sea un conejillo de indias, lo cual puede dar ejemplo al resto de entidades reguladoras en todo el mundo. Esto puede ayudar a que se sienten las bases del grado de intervención que se debe tomar en cuanto a legislar la Neutralidad de Red, que no es de fácil determinación. El asunto más importante de todo esto es el de si se debe considerar Internet como un derecho o cómo un servicio, ya que en base a esta consideración las reglas de juego se pueden llevar a un lado u otro.

Mientras tanto, en EEUU y Europa se está esperando a ver cómo evoluciona el tema. En EEUU por falta de respaldo legislativo la FCC (Federal Communication Comision) no tiene atribuciones suficientes para hacer cumplir ninguna directiva (ver "FCC vs. Comcast") y en Europa se está esperando a que hayan motivos para intervenir, si es que los hay. De momento tan sólo Holanda ha movido ficha, al aprobar recientemente (22 de Junio de 2011) su Ley de Net Neutrality (ver "Holanda, pionera en Europa").

Veremos cómo evoluciona la aplicación y el cumplimiento de esta Ley, pero lo que parece estar claro es que la cosa tan solo acaba de empezar y que a la que se dan problemas de abuso o situaciones contrarias a la Neutralidad de Red la situación se va a acelerar, como ha pasado en Holanda.

miércoles, 20 de julio de 2011

La Gestión de Tráfico

En los albores de la era Internet, cuando nos conectábamos con módem mediante Dial-Up (es una especie de llamada de datos, que hacía unos ruiditos muy raros y molestos al conectar), las limitaciones de Internet eran básicamente debidas a la propia tecnologia de acceso. No se daban problemas de congestión debido a cómo se trataban los datos y por lo tanto la Gestión de Tráfico no se hacía necesaria. Cuando aparecieron las primeras conexiones de banda ancha como el ADSL la cosa empezó a animarse un poco, y comenzaron a surgir novedosas aplicaciones y servicios en Internet. 

Hasta aquel momento Internet se basaba en un modelo cliente-servidor, lo cual quiere decir que los datos se descargaban mayormente desde la red hacia el usuario, tanto es así que en la tecnología xDSL se diseñaron los enlaces para tal fin: un pequeño enlace de subida (Uplink, UL) y uno mucho mayor de bajada (Downlink, DL). Pero apareció el P2P (peer-to-peer) a principios del milenio para cambiar un poco las cosas (una aplicación que tuvo mucho éxito fue Napster, el servicio para compartición-descarga de música). No se pretende explicar qué es el P2P en este post (ver "El tráfico P2P"), pero tan sólo comentar que es un tipo de red en la que la fuente de la información son los propios usuarios, y que en el caso más extremo está completamente descentralizado (sin servidores). Esto implicaba que los usuarios podían compartir datos en Internet, pero el diseño que se había hecho en las redes tipo cliente-servidor no la preparaba para este tráfico que a parte de utilizar mas DL también exigía más UL, siendo este último más crítico. 

Así, los ISPs comenzaron a experimentar problemas de congestión y algunos comenzaron a aplicar la Gestión de Tráfico, algo que hasta aquel entonces no se había hecho. Por abuso de lenguaje, con Gestión de Tráfico nos referimos a las técnicas que no tratan por igual a todos los paquetes, porqué Gestión de Tráfico cómo tal es cualquier estrategia que se siga para transferir datos. Esta técnica consiste en detectar que tipo de información contienen los paquetes IP y según lo que contenga darle mas o menos prioridad, retardarlo o incluso eliminarlo. Para saber que tipo de infromación lleva el paquete, en aquel entonces, se hacía una inpección "suave" de paquetes (SPI, Stateful/Shallow Packet Inspection), que consiste en identificar el 5-tuple (dir. IP origen, dir. IP destino, puerto origen, puerto destino, protocolo). Este tipo de análisis es el que suelen realizar los firewall y consiste en aplicar unas reglas de tratamiento de paquetes según unas listas de acciones permitidas. Si un paquete se quiere colar por un puerto que no esté definido para ello, o si el protocolo no esta permitido, por ejemplo, el paquete es descartado o retardado.

Además de otros que se han ido dando sin llegar a ser muy extremos, es conocido el caso Comcast que se dio en 2007 en EEUU debido a que esta compañía prestadora de acceso por cable fue procesada por aplicar Gestión de Tráfico en su tráfico P2P (ver "FCC vs. Comcast").


Por aquel entonces Internet ya formaba parte de nuestras vidas, y ya comenzaban a circular grandes contenidos multimedia por la red. Esta situación nos ha devuelto al modelo cliente-servidor (el vídeo - 26% del tráfico de Internet - ha superado al tráfico P2P - 24% del tráfico de Internet - por primera vez en 10 años, según Cisco), pero el problema sigue latente ya que se demanda mucha capacidad para este tipo de servicios. El problema se acentúa en los accesos móviles debido las limitaciones físicas que se dan en este medio.

La capacidad de burlar los sistemas de detección SPI ha llevado a muchos fabricantes a implementar sistemas capaces de realizar "Deep Packet Inspection (DPI)" y análisis heurístico (de comportamiento). Esto supone una forma nueva de Gestión de Tráfico ya que con estas tecnologías el contenido de nuestros paquetes puede ser investigado exhaustivamente sin que apenas se note en la calidad de la comunicación. Por otro lado, cabe decir también que gracias a esta herramienta se pueden detectar ataques o malware.

Lo cierto es que una buena Gestión de Tráfico puede ser beneficiosa para un gran conjunto de usuarios ya que no todas las aplicaciones que corren sobre Internet exigen el mismo ancho de banda, latencia o jitter (ver "Ancho de banda, latencia y jitter") y también puede hacer que se brinde una cierta QoE (Quality of Experience). No obstante, este tipo de prácticas abren también la puerta a ciertas conductas por parte de los ISPs que pueden considerarse anticompetitivas, discriminatorias e injustificadas. El problema al que se enfrentan las entidades regulatorias es precisamente determinar cual es el nivel de Gestión que se puede aceptar, si es que se debe aceptar, y bajo que condiciones (ver "Uso razonable de Gestión de Tráfico"). En próximos posts veremos las medidas que se han tomado en algunos países y algunas acciones que han tomado ISPs en contra de la Neutralidad de Red.

martes, 19 de julio de 2011

La Neutralidad de Red

En lo que va de blog se han visto algunos matices tecnológicos sobre "Qué es Internet?" y sobre "Cómo funciona Internet?", además se han introducido los algunos aspectos económicos en los posts el "Mercado bilateral en Internet" y el "El modelo económico de Internet". Con ello, a parte de lo que haya podido aportar a aquellos que no estuvieran puestos en el tema, se ha querido sentar la base sobre el tema del cual va a tratar fundamentalmente este blog: La Neutralidad de Red.

El debate se inició a mitad de década pasada, y se atribuye su definición a Tim Wu, profesor de la Columbia Law School y que aplicó este nombre retomando un concepto de las antiguas redes telegráficas, en las que no se podía controlar el contenido que se transportaba. El debate se puede considerar que se inició cuando la FCC (entidad reguladora de las comunicaciones electrónicas en EEUU) suprimió una ley que impedía a las compañías controlar el contenido que circulaba por sus redes.

Pero vayamos por partes. La gran penetración y éxito de Internet han elevado de forma abismal el consumo de datos, debido sobre todo al creciente uso de servicios multimedia que demandan un ancho de banda elevado para su correcto funcionamiento. Según un estudio de Cisco, el tráfico ha crecido 8x en los últimos cinco años, y se prevé que crezca 4x en los próximos cinco. Esto ha provocado o acabará provocando una saturación en las redes (sobre todo en los accesos) que ha iniciado una serie de debates sobre quién debe invertir en Internet o cómo se puede solucionar esta situación. El modelo surgido en los últimos años lleva a una situación en la que los operadores e ISPs se ven casi en la obligación de dar más capacidad a los usuarios o bien de gestionar los servicios de algún modo, para así brindar una buena QoE (Quality of Experience) a sus clientes.


La Neutralidad de Red (en realidad se debería decir la Neutralidad de Internet) es el principio por el cual todos los paquetes IP de Internet se deben tratar por igual, sin distinción de ningún tipo. De hecho, según el principio end-to-end sobre el diseño de Internet se afirma que la inteligencia de la red debe estar en los bordes, por lo que un análisis más allá del L3-L4 en un paquete o flujo de paquetes IP va en contra de dicho principio. Los nodos internos de Internet, según este principio, deberían direccionar los paquetes sin cuestionarse nada más que hacia donde debe enviarlos. Así, si se tratan los paquetes de forma distinta (se da más prioridad a uno que lleva tráfico HTTP frente a uno que lleva P2P, por ejemplo) es porqué se está empleando un análsisi profundo de los paquetes ya que dicha información está en la capa L7 y L7+. Este análisis es conocido como "Deep Packet Inspection (DPI)", y dará bastante que hablar en posteriores posts.

Lo contrario a la Neutralidad de Red es emplear la Gestión del Tráfico, que se suele hacer previa inspección DPI y que atenta, según su detractores, en contra de la privacidad de los usuarios. El caso es que en determinadas situaciones y condiciones (zonas geográficas, horas puntas, etc.) la gestión del tráfico puede resultar beneficiosa para la gran mayoría de usuarios finales. Entonces, si se acepta como una medida positiva, ¿dónde se deben poner los límites de que políticas de gestión son aceptables o no? De esto hablaré en mi próximo post: "La Gestión de Tráfico".

No hace falta decir quien se posiciona a cada lado del debate. Operadores e ISPs reclaman un modelo en el que los proveedores de servicios y contenidos paguen por emplear las redes en las que sustentan su negocio. Estos alegan que Internet es lo que es gracias a que todo aquel que lo desee puede utilizarlo para cualquier fin sin pagar por ello (salvo por el acceso) y que esto estimula una creatividad e innovación que está cambiado nuestros modos de vida y nuestra economía. Además de estos dos agentes, hay que añadir y tener en cuenta el papel de las entidades reguladoras, que en general se posicionan a favor de una Neutralidad de Red "a medias", tema del que se hablará en profundidad en posteriores posts.

Llegados a un extremo, podríamos imaginar un Internet en el que no hubiese ningún tipo de control del tráfico que circula por las redes, lo cual probablemente perjudicaría a la mayoría de usuarios en beneficio de unos pocos. El otro extremo sería aquel en el que tuviéramos una gama de tarifas por usos, por ejemplo:
  1. Tarifa bronce:  (20€) ->  HTTP + Streaming
  2. Tarifa plata:     (35€) ->  HTTP + Streaming+ P2P + VoIP 
  3. Tarifa oro:       (50€) ->  HTTP + Streaming+ P2P + VoIP + VoD
Si las aguas llegaran a este cauce, lo que sí que se podría exigir es una cierta QoS (Quality of Service)  en los servicios por los que se está pagando de forma extra. Estaríais de acuerdo con este formato para contratar Internet?



HTTP : Navegación Web
Streaming: Youtube, Spotify, etc.
P2P (peer-to-peer): Compartición archivos como BitTorrent, Gnutella, etc (ver "El tráfico P2P")
VoIP (Voice over IP): Skype, Viber, etc.
VoD (Video on Demand): Netflix, etc.



viernes, 15 de julio de 2011

El modelo económico de Internet

Hemos visto más o menos como funciona "El mercado a dos bandas en Internet", ahora veremos como se mueve el capital. Existen numerosas empresas que viven directa e indirectamente de Internet. Lo primero que seguramente nos viene a la cabeza al preguntarnos quién saca tajada de este mundo son las compañías que nos dan el acceso (Telefónica, ONO, Vodafone, etc.). Si que es cierto que estas empresas son las que ingresan directamente una cuota del usuario, pero eso es sólo el comienzo.

Para empezar, y tal y como hablo en mi post "Qué es Internet?", existen ISPs que operan por encima del nivel de acceso y que no lo hacen por amor al arte. Estamos hablando de los que distribuyen e intercambian el tráfico a nivel nacional e internacional, conocidos como Tier-1 (AT&T, Level3, Global Crossing, etc.), y los que están algo por debajo, en el Tier-2 (Telefónica, Comcast, British Telecom, Telia Sonera, etc.). Estos viven de transportar el tráfico y como empresas que son lo harán bajo remuneración. A este intercanvio se le conoce como tránsito. 

Pues bien, los Tier-1 prácticamente sólo obtienen ingresos por tránsito, que le viene demandado por un ISP de nivel inferior. Entre sí, los ISP del Tier-1 se asocian generalmente mediante acuerdos de peering, que a diferencia del tránsito se presta sin remuneración. Los ISP de Tier-2 también obtienen ingresos por tránsito del nivel inferior y en algunos casos también ofrece servicios de acceso de forma directa. Los del Tier-3 con toda probabilidad solo contratan tránsito a uno o varios del nivel superior, y generalmente tiene pocos o ningún acuerdo de peering. Este modelo se corresponde bastante con el Internet inicial, el de hace unos 8-10 años, pero ahora la cosa es algo más complicada.

La inclusión de agentes como Google, que genera cerca de un 7% del tráfico mundial (incluidos todos sus servicios como Youtube, Gmail, etc.), y que implementó su red propia que se conecta casi al 70% de los ISPs mediante peering (pobre del que no quiera ofrecer los servicios de Google) están cambiando este modelo. También existen los CDNs (Content Delivery Network) que se encargan de alojar las páginas de sus clientes en varios servidores mediante una red propia, haciendo que el usuario final pueda llegar a acceder un sitio sin que su tráfico tenga que pasar por un Tier-1. Lo relevante de esta situación, es que los ingresos por tránsito se han visto reducidos en gran medida, lo cual debilita también la inversión el la red. Esto nos lleva a la conclusión de que básicamente los que pagan por la infraestructura de Internet somos en gran medida los usuarios finales al contratar el acceso.

Por contra, los ingresos de los proveedores de servicios y contenidos han crecido considerablemente, debido generalmente a publicidad. Los ingresos de Google, por ejemplo, se deben en alrededor de un 90% a su plataforma publicitaria. También se han incrementado los servicios de venta online, VoD (Video on Demand), así cómo infinidad de aplicaciones que aportan mucho valor a sectores tradicionales que se han adaptado a Internet. Esto ha generando y sigue generando una economía muy sólida en base a Internet. Lo que no hay que olvidar es que dichos ingresos también han contribuido a la implementación de la red de Google, por seguir el ejemplo, y que de algún modo esa red también forma parte de Internet.


grafica-ingresos-google.jpg

Hay un hecho que parece estar claro, y es que el aumento de consumo de ancho de banda crece mucho más rápido que la capacidad de la red para dar cabida a todo este contenido. A esto hay que añadir también la gran penetración que están teniendo los smartphones que se suman a la contribución de demanda de ancho de banda. Todos estos factores finalmente llevan a la situación en las que se encuentra el debate de la Net Neutrality, y que a grandes rasgos fue causado por determinar quién tienen que invertir en la red: ¿los operadores e ISPs, los usuarios o los proveedores de servicio?

El tema continúa en mi siguiente post: "La Neutralidad de Red".

jueves, 14 de julio de 2011

El mercado bilateral en Internet

Uno de los principales problemas que han iniciado el debate de la Net Neutrality es el modelo económico en que se basa Internet: el mercado bilateral. Aunque parezca mentira, es a veces más complicado equilibrar este campo que tratar los problemas tecnológicos. Para comprender este modelo voy a hacer un símil con algo muy sencillo: un recinto de exposición/feria.

El organizador de la exposición pondrá la infraestructura, en la que ciertas empresas u organizaciones pagarán una cuota por estar presentes y dar a conocer sus servicios. Por otro lado, los asistentes pagarán también una pequeña cantidad por entrar al recinto y poder informarse, comprar, etc. Si esto esta en equilibrio, todo el mundo sale ganando: el organizador se enriquece, las empresas se publicitan y/o venden y los usuarios consiguen comparar y/o comprar varios productos o servicios en un único lugar. Ahora bien, imaginemos que la exposición ha sido un éxito y que mucha más gente quiere asistir al recinto. El organizador se verá casi obligado a ampliar la infraestructura, pero obviamente con previsión de ampliar el negocio, por lo que tendrá que subir las cuotas ya sea a un lado del mercado, al otro, o a los dos para hacer rentable la inversión (la teoría económica dice que debería cubrir la mayor parte del gasto el lado que tenga una demanda más inelástica). El problema surge cuando nadie esta dispuesto a pagar más. Si es así, el organizador lo que probablemente hará será mantener la estructura.

El hecho de que las transacciones se produzcan en los extremos provoca lo que en términos económicos se conoce como externalidades, que es cuando los costos o beneficios de un bien o servicio no se ven reflejados en su precio. La teoría económica dice que cuantos mas elementos hay en la red, menos impacto presentan las externalidades. 

Pues bien, extrapolando la situación, en Internet el organizador sería el propietario o administrador de la red, es decir, los ISPs (Telefónica, ONO, etc.). Los clientes seríamos evidentemente los usuarios y los ofertantes serían los proveedores de servicios o aplicaciones (Google, Youtube, Netflix, Skype, prensa digital, venta online etc.). La situación actual es parecida al caso expuesto en la feria, aunque el problema que se está dando es que la gran cantidad de contenidos que se demandan están llegando a sobrepasar los límites de las redes (sobre todo en los accesos) dando lugar a congestiones (externalidad negativa). Ante esta situación, y en previsión de que la demanda vaya en aumento es cuando surgen los debates de como equilibrar los precios para ser capaces de gestionar estos servicios que consumen mucho ancho de banda y hacerlo de modo que todos los agentes involucrados salgan ganando.




Los usuarios no estamos dispuestos a pagar más por algo que hasta ahora se ha mantenido más o menos estable, y el mercado nos apoya en el sentido de que existe una fuerte competencia estimulada por la regulación. Cabe remarcar que las redes de acceso pertenecen a Telefónica, y que los demás ISPs deben pagar por ellas (en esta situación se dice que Telefónica es un operador mayorista). En EEUU la cosa es algo diferente ya que a diferencia de Europa no existe regulación y se da generalmente un duopolio entre los operadores de cable y los de línea telefónica (esto a parte de los accesos móviles). En cualquier caso, la única opción que queda es la de cobrar a los proveedores de servicios o contenidos por usar las redes ya que en la actualidad pagan por un acceso (más grande que el de un usuario estándar), y a veces ni si quiera eso. Google por ejemplo posee una red propia que se conecta con los operadores generalmente de forma gratuita (este acuerdo se conoce como peering). Muchas teorías existentes abogan por esta solución, argumentando que el pago por parte de este sector haría disminuir el coste de los accesos, aumentando así el número de abonados.

La posición de la mayoría de operadores e ISPs es la de no permitir que terceros se enriquezcan sin contribuir al mantenimiento y mejora de la infraestructura que hace posible ese crecimiento. Existen declaraciones de directivos de compañías importantes que defienden esta situación (César Alierta, presidente de Telefónica sin ir más lejos). La posición de los proveedores de servicios y/o contenidos es la de mantener la estructura actual, alegando que cobrar a este lado del mercado pondría barreras al crecimiento e innovación de Internet.

Como se puede observar no es un tema sencillo de tratar. Menos aún cuando Internet y el negocio asociado a él está generando en la actualidad un 7% del PIB mundial y se espera que en la próxima década alcance el 20%, sin duda pasaremos de una economía industrial a una economía de la información.

Continuará en mi próximo post: "El modelo económico de Internet".


miércoles, 13 de julio de 2011

Cómo funciona Internet?

Después de haber hablado brevemente sobre "Qué es Internet?", se pretende dar un pequeña explicación de cómo funciona, que no es poca cosa. Para ello, primero de todo, se debe conocer el modelo en que está estructurado, que se corresponde con el modelo OSI.  

El Modelo OSI fue creado en 1984 por la ISO (International Organization for Standardization) con la intención de ser el marco de referencia para la conexión de equipos de comunicaciones y para estimular la compatibilidad entre diferentes tipos de redes.  Así, se definieron 7 capas a las que se atribuyen unas funciones determinadas y que hacen referencia a los procesos que atraviesan los datos desde su origen hasta su destino.

Capa física (L1): Describe las características físicas de los datos, esto abarca desde los conectores que se deben utilizar hasta la temporización de los datos, pasando por los niveles de potencia, etc.

Capa de enlace (L2): Prepara los datos para que puedan ser enviados a lo largo de los medios utilizados (a esta unidad de de datos se les llama tramas), lo que puede significar que los prepara para un medio inalámbrico (Wi-Fi, UMTS/HSPA, etc.) o bien para ser enviados a lo largo de una conexión cableada (Ethernet, ATM). Los dispositivos que realizan esta función son generalmente los switch, que trabajan con direcciones MAC (cada dispositivo de red posee una de estas, que es única en todo el mundo).

Capa de red (L3): Proporciona el direccionamiento y enrutamiento, es decir, gestiona como los datos (en este nivel, paquetes) se transportan de una parte de la red a otra. Es la responsable de configurar el paquete a un estándar de transmisión apropiada (por ejemplo, IP). El dispositivo que se encarga de esta tarea en Internet es el router, que trabaja con direcciones IP (aunque también con MAC).

Capa de transporte (L4): Establece una conexión extremo a extremo entre el punto de origen y destino asegurando que los paquetes se reúnen en el orden correcto. A estas unidades de datos se les llama datagrama y aquí es dónde se especifica el número de puerto donde conectarse una vez alcanzada la máquina a la que accedemos (por ejemplo, para navegación web se utiliza el puerto 80). Un puerto no es más que un número que se emplea a nivel software en los dispositivos para saber qué hacer con la información. Los firewall suelen analizar esta capa de la información.

Capa de sesión (L5): Crea, administra y termina sesiones de comunicaciones entre el remitente y el destinatario de tráfico de datos.  Como sesión podemos entender un proceso de intercambio de datos.

Capa de presentación (L6): Tiene que ver con el formato en que los datos se presentan. Esta capa también funciona como la capa que cifra y comprime los datos. 

Capa de aplicación (L7): Esta capa interactúa con el programa que está haciendo una petición de datos y es dónde se definen los protocolos que se van a utilizar.


Cuando se hace una petición de comunicación, los datos se van encapsulando en las diferentes capas y cada una de ellas aporta una cierta información sobre qué protocolo y características está utilizando, esto se conoce como cabecera.  Este encapsulado se produce desde el L7 hasta el L2, hasta que se envia a la red. En la recepción se des-encapsula en el sentido contrario.


Se ha hablado del modelo OSI, pero Internet se basa en el modelo TCP/IP. A grandes rasgos son muy similares pero con la diferencia de que en TCP/IP se integran los niveles del modelo OSI L6 y L5 en su L7 (aplicación). Esto es debido a que Internet no tiene un nivel de sesión unificado sobre el que los niveles superiores se sostengan, estas funciones son típicamente desempeñadas (o ignoradas) por las aplicaciones de usuario. El modelo OSI es posterior a la definición del modelo TCP/IP (1972), aunque es interesante describirlo porque las funcionalidades son prácticamente las mismas.  En cualquier caso, el modelo OSI no es más que un modelo teórico, y como todos sabemos la aplicación práctica suele distar bastante de la teoría, pudiendo mezclarse conceptos a la hora de aplicar algunos protocolos.

Aclarado esto, ya podemos hablar de como se transfieren los datos. Cuando un usuario hace una petición, sucede algo así:
  1. Los datos son encapsulados por el nivel de aplicación, que guarda la información de que programa está solicitando datos. Esto lo hace nuestro PC o dispositivo cualquiera.
  2. Esta información a su vez se encapsula en un datagrama TCP (Transfer Control Protocol) o UDP (User Data Protocol), que contiene la información de a qué puerto se va a pedir la conexión, además del orden en que están distribuidos los datos.
  3. Estos datagramas se fragmentan en paquetes IP, que son los que se irán distribuyendo por la red. En primer lugar irán desde nuestro router al router del ISP. En ese punto, el router del ISP consulta la dirección IP de destino que lleva escrita nuestro paquete, y según unas tablas internas lo redirigirá a otro router para que este a su vez haga lo mismo, hasta que el paquete alcance el destino. Dependiendo de la página accedida, en número de saltos puede variar, pero para dar una idea suele ser de varias unidades o decenas. (Existe una aplicación bastante interesante llamada traceroute que nos da esta información).
  4. En el destino se procederá de forma inversa para acceder a los datos.

En la descripción del proceso se ha obviado la función del nivel de enlace. Cada router asocia la dirección MAC que corresponde a la IP a la que se deba acceder, y envía los datos a esa dirección. Cuando se recibe en el siguiente router o salto, se quita la cabecera L2 y se analiza la L3, se consultan las tablas de este nuevo router, se añade cabecera L2 y se envía al siguiente punto.


Un router como tal tan solo debería consultar dirección IP de destino y de origen para determinar hacia donde enviar los datos.  No obstante, la realidad es que se suele consultar esto mas los puertos origen y destino y el protocolo de datos (esta información corresponde al L4, y no es específica de un router, sino más bien de un firewall). A esta combinación de datos se la conoce como 5-tuple, y se emplea para determinar si algún paquete no debe seguir por la red si está intentando acceder algún puerto prohibido o si el protocolo no es el pertinente.

Existe un principio sobre el diseño de Internet que dice que una red óptima debe tener la inteligencia en los extremos  esto es el principio end-to-end. Esto significa que si un paquete se pierde por el camino, no será el router quien se encargue de tomar las medidas pertinentes, si no que será el destinatario quien se encargue de pedir la retransmisión (esto sucede en el L4). Este modo de funcionamiento no aprovisiona un QoS (Quality of Service) mínima y se corresponde con lo que se denomina un servicio 'best effort' (mejor esfuerzo) y que como su nombre indica hace las tareas lo mejor que puede. Este modo de funcionamiento es totalmente contrario a los servicios de comunicación a los que estamos acostumbrados (la red telefónica conmutada o RTC) dónde una llamada no es cursada si no se puede establecer un mínimo QoS.

Habiendo simplificado mucho y con ánimo de dar tan solo una visión orientativa, así es como se mueven los datos por Internet. Se ha prescindido de comentar protocolos de seguridad, protocolos de control, medidas para evitar congestión y errores y varias cosas más, que poco a poco iré desgranando.

Para más información y detalles del funcionamiento de Internet ver "Cómo funciona Internet? (II)", además del resto de entradas del blog.



Os dejo un par de vídeos bastante amigables (y antiguos) que explican el proceso (están en inglés, aunque hay versión en castellano): "Warriors of the Net", "How the Internet works".


martes, 12 de julio de 2011

Qué es Internet?

Antes de empezar a abordar el tema de la Neutralidad de Red en cuestión, me gustaría hablar mínimamente sobre la base en la que se sostiene: Internet. Creo que resulta interesante dar unas pinceladas de como se estructura esta gigantesca red informática que ha ido creciendo sobre la marcha, sin haber sido planificada, y que no entiende de fronteras, gobiernos, religiones ni culturas.

Internet es la unión de una gran cantidad de redes que se conectan entre sí para intercanviar información. Cada una de estas redes se conoce oficialmente como 'Autonomous System' (AS) y se agrupan bajo una entidad que se encarga de su gestión, la IANA (Internet Assigned Numbers Autority). Actualmente existen más de 50.000 AS (para más detalle ver aquí) que suelen ser entidades como Universidades, organizaciones privadas, gobiernos u otros.  Entre estos AS cabe destacar el papel de un tipo de organización privada conocida como ISP (Internet Service Provider), que es la encargada de ofrecernos acceso a Internet por un "módico precio".

La conexión entre diferentes AS se da de forma voluntaria y/o por intereses ya sean de índole comercial o no. Un AS no estará conectado con el resto de forma directa, aunque sí que debe ser capaz de "saber" cómo alcanzar al resto mediante tablas de enrutamiento, es decir, sabiendo hacia donde enviar los datos (de esto se encarga el Border Gateway Protocol).  Esto deriva en un sistema más o menos jerarquizado en el que existen tres niveles de AS. Están los AS del Tier-1, que tienen visibilidad sobre todos los demás de su mismo tipo y por lo tanto sobre lo que se considera el núcleo de Internet. Por debajo de estos estás los del Tier-2, que tienen visibilidad sobre como mínimo uno del Tier-1 para poder alcanzar todas las direcciones de Internet, y probablemente con algunos mas de su mismo tipo.  En la última capa se encuentran los ISP del Tier-3, que son los que como se ha comentado anteriormente nos brindan a los usuarios finales la conexión a Internet, y que como mínimo tendrán visibilidad sobre un Tier-2.



Esta clasificación no está especificada en ningún sitio, más bien se trata de un sistema de facto, y de hecho es bastante mas compleja que lo mencionado ya que además también tienen cabida puntos de intercambio de datos neutros o IXPs (Internet Exchange Point), organizaciones como CDNs (Content Delivery Network),  o proveedores de servicios como Google, Yahoo!, Youtube, etc.

Llegados a este punto, ya se ha hablado de que tenemos el acceso a Internet y el núcleo (también conocido como backbone).  El acceso es simplemente el enlace que hay entre el usuario final y el ISP, y que puede tratarse de una conexión a través de la línea telefónica tradicional (xDSL, mayormente ADSL), mediante ondas electromagnéticas (GSM/GPRS/EDGE, UMTS/HSPA, LTE), por cable (DOCSIS) o por fibra óptica (GPON), entre otras. El núcleo lo forman todas aquellas máquinas y enlaces que transportan información generada por los equipos que entregan o piden tráfico desde el acceso.

Todo este ir y venir de datos es posible mediante unas reglas de juego que especifican cómo se envía, recibe y agrupa la información.  Estas reglas son el protocolo TCP/IP, pero esto ya es otro tema, que se abordará en mi siguiente post:  "Cómo funciona Internet?".

Saludos!

lunes, 11 de julio de 2011

Bienvenidos!

Internet, la ventana al mundo, la red de redes... ¿Quien no utiliza este universo de posibilidades que abarca ya todos los aspectos de nuestra vida? No hace falta ser ningún experto ni entender su funcionaiento para utilizarlo, solo hay que conectar un PC, un portátil, un tablet, un smartphone o cualquier otro dispositivo y trabajar, tuitear, chatear, comprar, consultar, jugar... 

Me asombra la naturalidad con la que la mayoría de personas lo utilizan sin ni si quiera cuestionarse cómo es posible que esta mole de información fluya entre nuestras máquinas de forma casi inmediata (bueno, esto no sucede siempre). La verdad es que todo lo que hay detrás de un simple correo electrónico, un 'Me gusta' en Facebook, o una transacción online es abrumadoramente complejo, y la cosa va a más. Personalmente, creo que el ritmo del avance tecnológico nos esta insensibilizando ante el progreso.

 

En fín, no me quiero desviar, pasemos a las presentaciones... Soy estudiante de Telecomunicaciones y Electrónica por la ETSETB (UPC), de hecho acabo de finalizar todas las asignaturas así que más que estudiante soy ya casi Ingeniero (sienta bien decirlo). Lo importante es que a raíz de la realización de mi PFC (Proyecto Final de Carrera) me encuentro realizando un estudio sobre un tema que esta incandescente en cuanto a Internet se refiere, la Neutralidad de Red.

La Neutralidad de Red (también Net Neutrality o Open Internet), es un tema del cual se está hablando mucho pese a su corta vida, considerando que es un debate que se empezó a tratar a mediados de la década pasada. Simplificando mucho, trata sobre como tiene que ser manipulada la información de Internet por parte de los operadores. Hasta ahora se ha venido haciendo de forma neutral (toda la información se procesa del mismo modo), pero los aumentos de demanda tienden a hacer peligrar las capacidades de la red, dando lugar a la discusión de si la red debe/tiene que ser neutral o no para que siga funcionando tanto en lo tecnológico como en lo económico.

Detrás de éste tema hay muchos matices a tratar, muchos agentes involucrados y mucho dinero de por medio. Este post no pretende ser más que una breve introducción, mi intención es la de ir contando todo lo que sepa acerca de este tema, con la simple finalidad de divulgar y de poder compartir opiniones con aquellos que estéis interesados.


Bienvenidos!