miércoles, 20 de agosto de 2008

Explosión de las aplicaciones M2M


Las operadoras de telefonía móvil han encontrado en las máquinas unos nuevos "clientes" con el cual superar la saturación que se ha producido en cuanto a número de líneas en los países desarrollados. Muchos países desarrollados superan la tasa de penetración del 100%, debido no sólo a la utilización de dos móviles por muchos trabajadores, sino por la creciente interconexión de máquinas (M2M) a través de las redes de telefonía móvil. Según datos de la CMT, las líneas de telefonía móvil en España a Junio de 2008 alcanzaron los 49,6 millones, lo que supone una proporción de 109,8 líneas por cada 100 habitantes. Las tarjetas asociadas a máquinas registraron en el primer semestre 220.842 nuevas líneas y ya alcanzan un total de 1,3 millones de líneas, un 43,2% más que en Junio del año pasado. Así, el parque total de líneas móviles, que incluye las M2M, roza los 51 millones de líneas.
Las tecnologías M2M (Machine-to-Machine) permiten las comunicaciones con o sin cables entre máquinas (sensores, actuadores, instrumentos, etc.) de forma autónoma integrándoles en sistemas que prestan servicios. M2M es ampliamente utilizado en el hogar digital, telemetría, control de tráfico, sistemas de seguridad, servicios logísticos, gestión de flotas, etc. Las tecnologías inalámbricas (GSM, GPRS, UMTS, HSDPA, Wi-Fi, RFID, etc.) son especialmente interesantes para aplicaciones M2M debido a la flexibilidad y simplicidad de instalación, nivel de estandarización, tiempo y coste para el despliegue. Las redes inalámbricas ofrecen además una comunicación fiable, segura y económia entre sistemas. Esta comunicación evitará desplazamientos de personal, mejorando así además de la eficiencia, la protección del medio ambiente. Incluso algunos de los dispositivos M2M puede ser hoy en día alimentado a través de energías renovables, en especial la solar.
Los operadores móviles ofrecen servicios de comunicaciones M2M para empresas con tarifas especiales adecuadas al tráfico generado por dichas aplicaciones y tarjetas con un perfil determinado (sólo de datos o voz y datos) que evite posibles fraudes. La comunicación M2M se realiza normalmente entre un centro de control (servidor) y las máquinas remotas. Entre las aplicaciones del M2M en el mundo empresarial, tenemos: envío del nivel de existencias y de efectivo por parte de máquinas expendedoras, lectura de contadores de agua o gas, supervisión remota de servicios públicos (por ejemplo, semáforos), control de los regadíos agrícolas en el campo, detección de averías en una cadena de montaje, apertura de puertas, etc. En cuanto a aplicaciones en el entorno doméstico, podemos destacar: encendido o apagado de electrodomésticos con el teléfono móvil, alarmas y videovigilancia, etc.
Un ejemplo clarificador de su uso puede ser el siguiente: alguien compra un refresco en una máquina dispensadora y resulta que sólo quedan tres botes en stock. Esa máquina, que se encuentra aislada y sin comunicación mediante un enlace físico, puede hacer uso de los mensajes SMS para notificar su estado a un servidor central: “queda poca bebida”. Normalmente esta comunicación se realiza sin intervención manual, por lo que realmente se conectan equipos automáticos en ambos lados.

lunes, 18 de agosto de 2008

PDF ya es estándar universal


PDF (Portable Document Format) es un formato de almacenamiento de documentos, desarrollado por la empresa Adobe Systems. Sus grandes beneficios (carácter multiplataforma, capacidad de compresión, preservación del formato del documento independientemente de la aplicación con la que se ha creado, protección de su contenido, firma digital del contenido, etc.) y su el éxito en la industria, lo han acabado por convertir en un estándar universal.
Adobe cedió PDF a la ISO (International Standarization Organization) en enero de 2007, generando la norma ISO 32000-1 (equivalente a PDF 1.7) en julio de 2008. A partir de ahora será el organismo encargado de su actualización. Ya existían subconjuntos de PDF normalizados, pero que sólo garantizaban el acceso a largo plazo de un documento o la posibilidad de imprimirlo en cualquier impresora con independencia de su fabricante. Ahora, la norma ISO 32000-1 da acceso a todas las funcionalidades del formato, mejorando la compatibilidad entre distintos sistemas operativos y aplicaciones software.
¿Por qué este movimiento ahora que PDF podía ser considerado un estándar de facto? El hecho de ser un estándar universal mejorará el posicionamiento de PDF como formato seleccionado en la e-Administración o los e-books, tras haber revolucionado la transmisión de documentos en la Web. Por otro lado, una vez generalizado el uso de su "producto", podrá vender sus aplicaciones y herramientas con más facilidad, pues es el fabricante que mejor gestiona este tipo de documentos.

jueves, 14 de agosto de 2008

Mobile backhaul está de moda


"Mobile backaul" es el medio por el que las estaciones base celulares se conectan al centro de conmutación del operador sobre una diversidad de medios. Debido a razones técnicas y económicas, es una de las partes de la red que más atención está suscitando en los últimos meses.
Hace unos años para los servicios 2G y los primeros servicios 3G era suficiente con un pequeño número de enlaces E1/T1, dado que cada canal de voz consumía tan sólo 8 kbps. Sin embargo, los requerimientos de ancho de banda de HSPA, LTE y Wi-Max no hacen económicamente viable el uso de los tradicionales enlaces E1/T1, pues el ancho de banda que puede consumir un usuario puede ser de varios Mbps. Mientras en una estación 2G era suficiente con 1-2 E1 por estación base, HSPA requerirá de 8-16 E1 por estación. Por ello, una alternativa mucho más eficiente en costes es realizar el transporte mediante multiplexación estadística a través de otras tecnologías como ATM y, preferiblemente, Gigabit Ethernet/IP/MPLS.
Ahora la mayoría de los operadores móviles se han convertido en operadores integrados, por lo que existen más alternativas que los tradicionales equipos de radio de microondas. Dependiendo del caso la solución óptima técnica y económicamente pasará por equipos sobre distintos medios físicos: radio (equipos de microondas PDH, SDH, Ethernet o híbridos TDM-paquetes), cobre (equipos DSL) o fibra óptica (equipos GPON o Ethernet punto a punto). El tráfico generado por estos equipos, ubicados en la "primera milla", será agregado empleando equipos SDH-NG, Carrier Ethernet, ATM o IP/MPLS. Este cambio gradual a un transporte IP simplificará el diseño de la red, reducirá los gastos de infraestructura y permitirá gestionar todas las tecnologías de acceso sobre una misma red troncal. Los

miércoles, 13 de agosto de 2008

Ranking Web de Universidades 2008

El CSIC (Consejo Superior de Investigaciones Científicas) acaba de actualizar el Ranking Web de Universidades 2008, que mide la presencia en Internet de las universidades de todo el mundo. El peso de las universidades en la Red se mide no por el número de visitas que reciben, ni por su diseño, sino por el número de citas o el número de enlaces que recibe cada web en cuestión, es decir, por su visibilidad en Internet. La cantidad y calidad de publicaciones electrónicas, tanto formales como informales, permiten por lo tanto mejorar la posición en el ranking. Podríamos calificar el ranking como la medida en que esas universidades colaboran en la divulgación científico-académica en la Web. Los resultados de la lista de universidades por países a Julio de 2008, ordenados por país es la siguiente:

País Top 5 Top 10
USA 1 1
Canada 2 2
UK 3 3
Australia 4 6
Países bajos 5 5
Suecia 6 7
Suiza 7 11
Alemania 8 4
Japón 9 8
Italia 10 10
España 11 9
Taiwan 12 13
Dinmarca 13 20
Finlandia 14 15
Austria 15 18
China 16 14
Francia 17 12
Israel 18 28
Belgica 19 23
Brasil 20 16

Para cada país las primeras 10 y 5 universidades han sido seleccionadas y después ordenados por la suma de las posiciones de esas universidades. Como podemos observar, existe una correlación bastante alta entre el potencial en I+D y tecnológico del país y la presencia de universidades en Internet. También vemos como las universidades de países de habla anglosajona son las mejores posicionadas, algo bastante lógico, pues es el idioma principal de la Red.
Las primeras 25 posiciones del ranking están lideradas por universidades de USA: Massachusetts Institute of Technology, Harvard University, Stanford University, University of California Berkeley, Pennsylvania State University, etc. En este caso, la excelencia académica y popularidad en la Web están muy correladas. Las primeras universidades de otros países que aparecen en el ranking son: University of Cambridge en la posición 26, University of Toronto en la posición 28 y Swiss Federal Institute of Technology Zurich en la posición 32. En esta clasificación, 25 universidades españolas aparecen entre las 500 primeras del mundo. Otros países como Francia o Italia sólo tienen 14 y 12 universidades, respectivamente. La primera universidad española es la Complutense de Madrid, que ocupa la posición 140 del mundo y la 34 de Europa. Las universidades catalanas se ven penalizadas por la falta de un dominio unificado (con departamentos bajo ".edu", ".cat", ".es", etc.) y en otras ocasiones por el idioma. La primera universidad latinoamericana es la Universidad Nacional Autónoma de México, que ocupa la posición 51.

viernes, 8 de agosto de 2008

Palabras más buscadas en Google


Google acaba de lanzar la versión beta de la herramienta Insights for Search, para conocer los términos más buscados en su buscador. La herramienta permite conocer las palabras clave más buscadas aplicando diversos filtros: por países y regiones (todo el mundo, United States, Germany, Spain, Spain - Madrid, Spain - Castilla y León, etc.), por períodos temporales (últimos 30 días, 2008, 2007, etc.) y por categorías (finanzas, salud, deportes, etc.). Así, este servicio amplia y mejora las capacidades ofrecidas hasta ahora por Google Trends.
Insights for Search es especialmente interesante para los técnicos de marketing online y administradores Web, pues ayuda a conocer cuales son las palabras clave que más podría interesar incorporar en el diseño de su sitio Web o "patrocinar" en el buscador a través de Google AdWords. También puede emplearse para conocer el grado de conocimiento e interés suscitado por nombres de marcas o nuevos productos.
Mediante una rápida y sencilla consulta podemos saber, por ejemplo, que los términos más buscados en España durante el año 2007 fueron: "youtube", "juegos", "hotmail", "marca" y "yahoo".

miércoles, 6 de agosto de 2008

¿Tienes filtros en tu red de acceso a Internet?


No es nada nuevo decir que la velocidad de las redes de intercambio de archivos por P2P (Azureus, eMule, etc.) y de otras aplicaciones de Internet depende mucho del proveedor de acceso a Internet que se utilice. Pero no sólo en cuanto a que se cumplan las velocidades de acceso contratadas, pues la mayoría de las operadoras no alcanzan ni el 50% de lo comprometido,
también a las acciones "ilícitas" que los proveedores de acceso a Internet toman contra estos programas de intercambio (filtrado de puertos, envío de paquetes de reinicio al router del usuario, etc.).
Hasta ahora, los usuarios sólo podían comprobar si la velocidad de acceso a Internet cumplía con las velocidades realmente contratadas. Para ello disponía de varios test gratuitos de velocidad, como los que ofrece ADSLZone. Sin embargo, recientemente se han conseguido grandes avances para analizar las medidas "ilegales" que utiliza el proveedor de acceso a Internet para filtrar las conexiones. Azureus ha creado una pequeña aplicación integrada en su propio programa de intercambio que permite rastrear la conexión para determinar las interrupciones provocadas precisamente por el reinicio del router. Gracias a esta aplicación ha realizado un estudio sobre un target de 8.000 personas durante el 1-1-2008 al 13-4-2008, dando como resultado una lista de los proveedores de acceso que más obstaculizan el intercambio por P2P. Podemos ver en esta lista como algunas operadoras españolas ocupan puestos destacados en ella: el 34 corresponde a Tele2, el 70 a Jazztel, el 72 a ONO, el 74 a Telefónica, etc. La lista está encabezada por el proveedor norteamericano Comcast, que de hecho ha sido recientemente castigado por la FCC por bloquear las transferencias de sus usuarios. Sin embargo, el estudio no puede asegurar que los problemas se deban a medidas contra las redes P2P, pues también puede deberse a problemas y errores en las conexiones a Internet de algunos proveedores. La EFF (Electronic Frontier Foundation) ha lanzado su primera versión de Switzerland, una herramienta que permite verificiar si nuestro proveedor de acceso a Internet está tomando medidas "ilegales", como degradar el tráfico P2P de programas como eMule o interrumpir llamadas de VoIP mediante programas como Skype. De momento es una herramienta compleja, que sólo funciona sobre línea de comandos, pero es un primer paso para que los propios usuarios auditen la calidad del proveedor.
Los proveedores de acceso a Internet han tenido en las redes P2P su "killer application" con la que comercializar el acceso de banda ancha. La banda ancha ofrece como grandes ventajas una conexión permanente y de alta velocidad, pero su precio es elevado y sus aplicaciones hasta hace pocos años, muy limitadas. Ahora que la banda ancha ya tiene unas economías de escala y un buen abanico de servicios, las redes P2P son vistas como un enemigo para los proveedores, con el argumento de que sobrecargan las redes troncales y que les impiden comercializar ciertos contenidos (a diferencia del modelo seguido en las redes móviles). La realidad es que el usuario paga por una tarifa plana con una velocidad y sin restricción de servicios, horarios, cantidades descargadas; es decir, no debe tener ningún impedimento a hacer con su banda ancha lo que quiera, siempre y cuando cumpla con la ley vigente.
A día de hoy, las redes P2P podemos calificarla como "ilícitas", no "ilegales", porque no hay delito si no hay un fin económico. Es como si prestamos una película en DVD al vecino de al lado, sólo que gracias a la Red ahora nuestros vecinos pueden estar a miles de km. No obstante, este es un debate que corresponde a las entidades de protección de derechos de autor, no a los proveedores de acceso a Internet. Internet nació como una red libre, donde todo el tráfico tenía la misma prioridad, siendo ahora esta neutralidad un tema en continuo debate. En la priorización del tráfico si tienen mucho que decir los operadores, sobre todo en la parte de acceso, porque para ofrecer una red de datos multiservicio de altas prestaciones, donde además del tráfico de Internet se soporte el tráfico de voz y vídeo, es necesario establecer prioridades de tráfico. En las redes de telecomunicaciones, se juega con la sobresubscripción (el overbooking tipo del tráfico de pasajeros aéreos). Puede verse como una medida injusta, pero realmente ayuda a que muchos usuarios puedan aprovecharse durante ciertos momentos del menor uso que están realizando otros usuarios. En cualquier caso, es importante que siempre el tráfico de voz o de vídeo de cualquier usuario, se curse respecto a los picos de tráfico de Internet de otros abonados. Si Internet quiere ser una red global y multiservicio, tarde o temprano deberá hacer algún tipo de filtrado de tráfico, si bien deberá asegurar unos mínimos para cada usuario e independientes del tráfico que él quiera cursar. También es importante que la red respete los principios de libertad de expresión y privacidad, pues en muchos países sigue habiendo censura.

lunes, 4 de agosto de 2008

Beneficios de VDSL2


En la actualidad varios operadores a nivel mundial están realizando despliegues de VDSL2, tanto en los DSLAM y MSAN como en nodos GPON con arquitectura FTTB/C/N. VDSL2 es la segunda versión del estándar VDSL (Very High-Speed Digital Subscriber Line) de la ITU-T (G.993.2 de Mayo de 2005) que permite alcanzar velocidades de hasta 100 Mbps simétricas sobre pequeños tramos de par de cobre tradicional. Para ofrecer velocidades que realmente supongan una diferenciación respecto a ADSL2+ es necesario que el DSLAM esté muy cerca del abonado (tramos inferiores a 1.500 metros), siendo también necesario que el tendido de cable cumpla unos requisitos mínimos de calidad. No obstante, el ancho de banda no es una de sus únicas mejoras respecto al resto de tecnologías xDSL:
  • Reduce los problemas de interoperabilidad de VDSL, donde los retrasos en la estandarización dieron lugar a varias implementaciones propietarias. El Broadband Forum es el orgnanismo encargado de asegurar la interoperabilidad entre dispositivos VDSL2.
  • Aumenta la flexibilidad en la configuración de velocidades upstream/downstream. El espectro de VDSL2 ha sido extendido, permitiendo trabajar de 25 kHz-30 MHz, frente a los 135 kHz- 12 MHz de VDSL1. El mecanismo de modulación que emplea es DMT (Discrete MultiTone). Mientras ADSL es un sistema de dos bandas, donde una parte del espectro es asignada al tráfico downstream y la otra al upstream, VDSL2 emplea múltiples bandas, incrementando la flexibilidad para establecer diferentes configuraciones de ancho de banda e incluso soportando anchos de banda simétricos. Del mismo modo que en ADSL, la parte baja del espectro se emplea para el transporte de las frecuencias RTB o RDSI, aunque también se contempla un modo completamente digital, donde todo el espectro es empleado para tráfico VDSL2.
  • Emplea Ethernet como tecnología de multiplexación en la primera milla. En concreto, utiliza encapsulación PTM (Packet Transfer Mode) 64/65. Aunque existen los DSLAM IP desde hace tiempo, desde el DSLAM hasta el módem del abonado las tecnologías xDSL sólo soportaban ATM como medio de transporte. Con VDSL2 se consigue de este modo una red Ethernet extremo a extremo, con la reducción de complejidad y overhead que esto supone.
  • Es compatible espectralmente con ADSL2/ADSL2+ y soporta ATM, permitiendo así la compatibilidad hacia atrás con dispositivos ADSL2/ADSL2+. De este modo, el proceso de migración a VDSL2 es mucho más sencillo: se puede actualizar el DLSAM y posteriormente actualizar el módem ADSL2/ADSL2+ del abonado.
  • Tiene un mecanismo de diagnóstico de fallos similar al definido para ADSL2/2+, pudiendo medir el ruido de la línea, atenuación, relación señal a ruido, etc., incluso en las peores condiciones de conexión. Esto facilita la prevención y subsanación de fallos.

viernes, 1 de agosto de 2008

VDSL2 en FTTB/FTTC/FTTN


VDSL2 (Very High-Speed Digital Subscriber Line 2) es una tecnología idónea para ofrecer FTTB/C/N, pues permite reutilizar el par de cobre para ofrecer velocidades de hasta 100 Mbps por usuario en tramos de menos de 500 metros o de hasta 50 Mbps en tramos de 1 km. La MDU (Multi-Drewling Unit) sería en este caso un mini-DSLAM con un puerto GPON hacia la central del operador y puertos VDSL2 (el número de puertos VDSL2 suele ser de 12-24 y en ocasiones también ofrecen puertos RF, E1/T1 o FE/GbE) hacia los usuarios.
En EEUU varios operadores como AT&T han comenzado a desplegar exitosamente estas soluciones para ofrecer nuevos servicios de banda ancha, teniendo como especial "market driver" la HDTV. La soluciones FTTB/C/N permiten realizar una instalación más rápida y más barata que las FTTH, si bien los costes operativos durante el tiempo de vida de la solución son mayores. AT&T calcula un coste medio por usuario de 250 $ en su despliegue de FTTC, frente a los 850 $ de Verizon en su despliegue de FTTH. Verizon además emplea en muchos tendidos -alrededor del 80%. fibra aérea en vez de subterránea, lo cual reduce sensiblemente el coste del despliegue, si bien no es permitido en todos los países.
En Europa y Sudamérica, donde la mayoría de las ciudades constan de edificios de varias viviendas, la ubicación idónea de la MDU es en el interior del edificio (FTTB), donde se reducen los problemas de protección ante daños físicos, la gestión de la alimentación y acondicionamiento climático (la temperatura típica será de unos -5 ºC a +45 ºC). Sin embargo, en EEUU donde la mayoría de las viviendas son unifamiliares las MDU se ubican en el exterior de los edificios (FTTC/N), por lo cual los requisitos de instalación son más estrictos y complejos: se necesitan cabinas protectoras, se necesita acondicionamiento climático especial para el frío y el calor (de -40 a +65 ºC), y es necesario alimentar la MDU desde la red eléctrica externa (de -190 Vdc en EEUU) en vez de emplear las típicas baterias de -48 Vdc conectadas a la red de baja tensión internas al edificio (de 115 Vac a 60 Hz en el caso de EEUU).
Generalmente, entre el módem/remote gateway VDSL2 en casa del abonado y la MDU la voz se suele transportar por conmutación de circuitos empleando splitters. La voz llegaría por lo tanto a través del cobre a la RTB/RDSI, mientras que los datos (Internet, IPTV, etc.) se cursarían a través de la fibra mediante tecnologías como GPON. Otras opciones es convertir la voz analógica a VoIP en el módem/remote gateway VDSL2 o bien en la MDU. En este caso, la red del operador debe estar preparada para ofrecer VoIP.