miércoles, 30 de julio de 2008

Nace el buscador Cuil desde las "entrañas" de Google


Ha nacido un nuevo buscador denominado Cuil (que se pronuncia como "Cool"). Los motores de búsqueda son las herramientas más empleadas en el proceso de decisión de compra por parte de los consumidores y un correcto posicionamiento es imprescindible para tener un negocio online exitoso. La aparición de Cuil, un nuevo buscador, es bastante positiva en el sentido que generará más competencia en un mercado liderado de forma destacada por Google, seguido de Yahoo! Search y MSN Search. Sin embargo, muchos han intentado conseguir romper este "monopolio" y ninguno lo ha conseguido. De momento Cuil ha seducido a varios inversores de EEUU, que han aportado un capital de 33 millones de dólares. Su modelo de negocio será la publicidad.
¿Qué es lo que tiene de especial de Cuil? y ¿Por qué ha generado tanta excitación? Cuil ha sido engendrado desde la propia Google, de hecho algunos de sus "cerebros" son antiguos empleados de la empresa, pero también cuenta en sus filas con ex-empleados de AltaVista o IBM WebFountain. Es decir, saben de lo que va esta industria.
¿Es mejor Cuil que Google? Cuil dice que tiene el índice más grande (no tiene en cuenta tanto la popularidad como Google), considera que la popularidad no es tan importante como dice Google y trata de ponderar más el contenido de las páginas Web, emplea un novedoso formato de página de resultados más intuitivo clasificando resultados y no recoge datos de los usuarios.
Creo que decir si el buscador es mejor que Google depende de muchos aspectos, como el tipo de consulta en cuestión y las necesidades de la persona que realiza la consulta. Por las búsquedas que he realizado, me parece que aún tiene mucho que mejorar. Sobre si el índice es mayor, es algo dificilmente demostrable. Parece raro que el índice de un buscador nuevo pueda superar a la de Google, que ha sido generado a través de sondeos en la red desde hace muchos años y que tiene una infraestructura de servidores muy potente. El formato de la página de resultados me parece bastante atractivo, enriqueciendo el típico enlace con comentarios con imágenes y ofreciendo ideas a posibles búsquedas relacionadas. El hecho de no almacenar información personal (direcciones IP, nombres o cookies) también lo considero muy positivo. La idea de ofrecer resultados ponderando más el contenido de la página que la popularidad también es interesante, sobre todo porque el mercado de enlaces recíprocos, alta en directorios, etc., ha alterado la medida de calidad de una página por el número de enlaces que recibe. También es interesante que de momento no ofrece enlaces patrocinados, es decir, reduce la cantidad de publicidad.

martes, 29 de julio de 2008

La industria de los videojuegos en España crece un 50% en 2007


Según datos de ADESE (Asociación Española de Distribuidores y Editores de Software de Entretenimiento), la industria del videojuego en España en 2007 supuso un punto de inflexión al continuado crecimiento registrado durante los últimos años. El año 2007 se facturaron 1.454 millones de euros, con un incremento del 50% sobre el año anterior, correspondiendo el 25% a la venta de videojuegos y el 88% a la venta de consolas. Nuestro mercado es el cuarto de Europa tras Reino Unido, Alemania e Italia en consumo de software en unidades tanto para consolas como para PC.
Los videojuegos es el líder del mercado del entretenimiento, superado al cine con unos 644 millones de euros, películas de vídeo con 362 millones y música grabada con 284 millones. La piratería a través del "top manta" y de las redes P2P también ha afectado negativamente a este sector. Se estima en unos 150 millones de euros las pérdidas generadas por la piratería en España.
Este éxito no pasa desapercibido en el sector de las telecomunicaciones, siendo los juegos para el móvil, el alquiler de videojuegos online bajo demanda y los juegos en red a través de la banda ancha un fenómeno al alza. Los juegos de estrategia son con diferencia los más exitosos en nuestro país y estos juegos son bastante propios a jugar en red con otros contrincantes. Los avances en inteligencia artificial también permitirán en breve compartir partidas con títulos en los que se trate de bailar, hacer gimnasia, correr en bicicleta, etc. Además, la publicidad en los videojuegos se estima que genere grandes ingresos en los próximos años.

lunes, 28 de julio de 2008

Google ha superado el 1.000.000.000.000 de URL en su índice


La Web se ha desarrollado extraordinariamente durante los últimos años, sobre todo a raiz de la popularización de la Web 2.0. Si en 1998 Google tenía indexadas 26 millones de URL y en el año 2000 unos 1.000 millones, hace unos días alcanzó 1.000.000.000.000 de URL. Se trata además de URL únicas, es decir, no duplicadas. Recordemos que cada URL no sólo puede ser una página HTML, sino también documentos PDF, DOC, etc. La noticia aparece en el blog Official de Google: http://googleblog.blogspot.com/2008/07/we-knew-web-was-big.html.
Si Google procesa todo ese número de URL es, además, porque en la Web existen muchas más. Para encontrar la mayoría de las páginas comienzan por procesar un conjunto bien definido formado por las páginas más populares, es decir, las de los sitios Web que generan más visitas y que tienen más enlaces. A partir de los enlaces salientes de estas páginas, van añadiendo información al índice, eliminado la información duplicada (por ello, si se han indexado 1.000.000.000.000 de URL es porque se han procesado muchas más). Sin embargo, la cadena no se sigue de forma "infinita", porque el buscador debe repetir el proceso anterior para encontrar nuevas URL importantes, así como actualizar todo su índice para evitar enlaces "rotos". Por ello es importante que los administradores de sitios Web de escasa popularidad o de reciente creación, indexen su página Web manualmente en el buscador y, además, que tengan un fichero "sitemap" para facilitarle este proceso.
Esta claro, que con esta cantidad creciente de información, la única tecnología que permitirá hacer búsquedas eficientes en poco tiempo, será la Web semántica. ¿Todavía crees que es fácil posicionar tus páginas Web en los primeros resultados de búsqueda de Google?...

sábado, 26 de julio de 2008

El posicionamiento Web creció un 64,41% en 2007 en España


El posicionamiento Web sigue aumentando su popularidad como técnica de marketing online. Según datos recientes del "Estudio de Inversión en Medios Interactivos IAB-PwC 2007", sólo en España este negocio movió 237,77 millones de euros en 2007, con un crecimiento del 64,41%. Esta cifra supone un 49,3% de toda la inversión en medios interactivos en España, que supuso 482,42 millones de euros en 2007.
La Web 2.0 ha supuesto un crecimiento exponencial en la cantidad de información en Internet. El posicionamiento Web hace refencia a las técnicas que permiten mejorar la posición de nuestro sitio Web en los resultados de búsqueda de los principales buscadores. Los motores de búsqueda y, en concreto Google, con un 60% del mercado de búsquedas en el mundo y alrededor del 90% en España, constituye en estos momentos la herramienta más importante para el proceso de búsqueda de los productos que satisfacen las necesidades de los consumidores. Sin embargo, como confirman diversos estudios, los internautas sólo se fijan en los primeros resultados de búsqueda. De este modo, quien no aparece en posición destacada está definitivamente en inferioridad de condiciones para competir comercialmente, quedando sus productos y servicios invisibles en la Red.

viernes, 25 de julio de 2008

Estándar europeo de TDT en el móvil

El estándar "recomendado" por la Comisión Europea para ofrecer la televisión digital a través del móvil es el DVB-H. Además de este estándar (que predomina en Europa, EEUU, Sudáfrica y Asia), existen el S-DMB (promovido por Corea del Sur y Japón), el STI-MI (China),, el T-DMB (Corea del Sur y Alemania) y el DAB-IP (Reino Unido). DVB-H es el preferido por los grandes fabricantes de teléfonos (como Nokia, Motorola, Philips o Sony-Ericsson), por lo que es el estándar que soportará una mayor gama de teléfonos, lo cual ayudará a reducir los costes y hacer más accesible la tecnología al usuario final.
España, así como la mayoría de los países de la Unión Europea, han elegido este formato, lo cual favorecerá la interoperabilidad entre los distintos países cuando se esté en roaming. DVB-H (Digital Video Broadcasting Handheld) es un estándar abierto promovio por a DVB. Se trata de una plataforma de difusión IP que adapta el estándar DVB-T empleado por la TDT (Televisión Digital Terrestre) para terminales portátiles. Por ello ofrece mejoras sustanciales en cuanto a la compresión de los datos para canales de menor ancho de banda, reducción del consumo de los terminales con pequeñas baterias, calidad de la recepción en terminales con pequeñas antenas y handover o traspaso de la señal cuando se está en movimiento desde una antena a otra.
En España los operadores de transporte de la señal (como Abertis), las operadores de telefonía móvil (Telefónica, Vodafone y Orange) y operadoras de televisión (RTVE, Antena 3, Cuatro, Telecinco, etc.) las ya han hecho pruebas piloto, si bien las ofertas comerciales no comenzarán al menos hasta el año 2010. España es uno de los países más avanzados en esta tecnología a nivel mundial.
Sin lugar a dudas, la televisión en el móvil será una de las aplicaciones más exitosas de la 3,5G y 4G, ayudando a hacer más llevaderas las esperas, viajes, etc.

miércoles, 23 de julio de 2008

Información sobre archivos ejecutables


Los archivos ejecutables MS-DOS/Windows (extensión ".exe") han sido tradicionalmente empleados para la difusión de virus. Cuando los antivirus detectan un programa sospechoso, advierten al usuario, pero es él el que en ocasiones debe decidir si ese fichero es o no dañino de verdad. En ocasiones los virus emplean nombres de proceso similares a los fundamentales. Ejecutando el comando "Ctrl+Alt+Supr" y seleccionando "Procesos", podemos ver un listado de los procesos que están ejecutando en segundo plano y qué recursos de CPU y memoria RAM emplean.
Para saber si el archivo es o no una amenaza existen diversos sitios Web que nos permiten conocer la procedencia y funciones de los programas ejecutables que hay en el ordenador. ProcessLibrary.com ofrece información (función, fabricante, si se puede parar o eliminar, etc.) sobre las librerías (*.dll) y ficheros ejecutables (*.exe) más habituales. Se señala si existe alguna variante del mismo nombre que pueda ser peligrosa. Las consultas son extremadamente sencillas, gracias al buscador integrado. También dispone de un foro donde puede solicitarse información adicional a expertos. El sitio también ofrece un software gratuito llamado ProcessScaner, que permite obtener rápidamente un informe que detalla a qué programa se vincula cada proceso, dónde está guardado en el ordenador y qué función tiene.

lunes, 21 de julio de 2008

Libro el futuro es tuyo, la revolución social de las personas


Me ha parecido muy interesante el libro colaborativo "El futuro es tuyo, la revolución social de las personas", escrito por más de 120 personas y coordinado por Dioni Nespral, que se puede descargar gratuitamente en http://blogbook.bubok.com/. Entre los autores están conocidos bloggers, empresarios de la Red, profesores de universidades y escuelas de negocios, periodistas, ingenieros, economistas, abogados, fotógrafos, emprendedores, consultores, directivos, videobloggers, podcasters, informáticos, comunidadores, etc.
La obra pretende hacer hincapié en la gran revolución social de las personas y como su participación está actuando como verdadero motor de transformación de la sociedad, la empresa y el desarrollo de la tecnología. En efecto, independientemente de nuestra raza, religión, sexo o conocimiento de la tecnología, hoy en día podemos expresar nuestras opiniones, trabajar en grupo, influenciar en la toma de decisiones, exponer nuestras quejas, desarrollar nuestras innovaciones... de una forma compartida gracias a las herramientas que nos brinda la llamada Web 2.0. Nunca a lo largo de los siglos, la persona ha tenido tanto protagonismo y todo gracias a las nuevas tecnologías de la información y comunicaciones.
El libro, con un total de 344 páginas, consta de varios capítulos cortos, donde se tratan temas como: micronegocios en la red, gestión de equipos de alto rendimiento, el impacto de las herramientas colaborativas en la empresa, el ciclo de la innovación, estrategia de marca personal en las organizaciones, los blog como herramienta para mejorar la relación con los consumidores, servicios móviles para ciudadanos móviles, Internet y la publicidad, los nuevos modelos de negocio en Internet, la VoIP, la televisión bajo demanda, los videoblogs, etc.

sábado, 19 de julio de 2008

Los hoteles se lanzan a Internet


NH Hoteles, así como otras importantes cadenas hoteleras españolas, han decidido lanzar sistemas de reserva directamente en su sitio Web, manteniendo así mismo la relación con agencias tradicionales y agencias online. Aunque esto ha supuesto una inversión importante, son muchas las razones que han motivado esta estrategia:
  • Reducción de costes. Se puede reducir costes, al disminuir las necesidades de personal, como consecuencia de la automatización del proceso comercial, y la reducción del número de agentes que participan (productores, operadores y minoristas), produciendo un contacto directo, sin intermediarios. La venta directa desde los hoteles a los consumidores reduce la capacidad de negocio de minoristas y operadores, reduciendo los costes. Adicionalmente, la información disponible en Internet permite que los clientes resuelvan ellos mismos muchas de sus dudas, reduciendo gastos de atención telefónica. También se reducen los gastos asociados a actividades de promoción y publicidad, como pueden ser los catálogos tradicionales, permitiendo además ofrecer ofertas personalizadas y actualizar rápidamente ofertas o precios.
  • Reducción de barreras temporales y geográficas. El proceso de reserva o solicitud y búsqueda de información por parte de los clientes finales o de las agencias u otros intermediarios, se puede realizar cómodamente sin exigencias horarias, ni geográficas. El cliente o intermediario recurre además en menos costes de transporte y telefónicos, prefiriendo así este sistema de reserva e información a los tradicionales.
  • Información completa y actualizada en el proceso de decisión compra. Tradicionalmente, la reserva de hoteles la realizaba el cliente o la agencia de viajes de forma telefónica o mediante fax, considerando como referentes: catálogos en papel, experiencias personales previas, o experiencias de personas de confianza previas. En muchas ocasiones, se tenía sólo información parcial del hotel cuando se tomaba la decisión de reservarlo. Mediante el catálogo virtual, los clientes pueden tomar decisiones más rápidas y efectuar comparaciones entre productos de forma más eficiente y con información totalmente actualizada.
  • Atención personalizada. A través de la página Web los clientes e intermediarios pueden reservar de forma muy sencilla en cualquier hotel de la cadena, pudiendo hacerlo según sus preferencias e incluyendo una extensa galería de fotos y visitas virtuales que facilitan la decisión de realizar la reserva. También se pueden ofrecer promociones y ofertas exclusivas para fidelizar los clientes.

jueves, 17 de julio de 2008

DOCSIS 3.0 llega a España


DOCSIS 3.0 es la nueva versión de DOCSIS (Data Over Cable Service Interface Specification). Se trata del nuevo estándar para la distribución de datos a alta velocidad sobre redes de televisión por cable.
Durante los próximos años muchos operadores comenzarán la introducción de los nuevos sistemas DOCSIS 3.0, en sustitución de los DOCSIS 2.0. La versión europea de DOCSIS se denomina EuroDOCSIS. La principal diferencia es que, en Europa, los canales de cable tienen un ancho de banda de 8 MHz (PAL), mientras que, en Norte América, es de 6 MHz (NTSC). Esto se traduce en un mayor ancho de banda disponible para el canal de datos de bajada. También existen otras variantes de DOCSIS que se emplean en Japón. La primera especificación DOCSIS fue la versión 1.0, publicada en marzo de 1997, seguida de la revisión 1.1 en abril de 1999. La mayoría de las redes actuales se basan en la versión 2.0, cuyo estándar fue publicado en enero de 2002. Las especificaciones finales de DOCSIS 3.0 datan de agosto de 2006.
ONO ha sido la primera operadora de cable española en realizar pruebas piloto con DOCSIS 3.0. Comenzó a primeros de 2008 en el área metropolitana de Valladolid y tiene previsto comenzar a comercializar sus primeras ofertas comerciales empleando este estándar a finales de año. La introducción de DOCSIS 3.0 en una red como la de ONO puede hacerse de forma gradual, simplemente cambiando equipos en las cabeceras de red (el equipo equivalente al DSLAM en la central es el CMTS) y dotando al cliente un nuevo módem en su domicilio, lo cual facilita enormemente su despliegue, aprovechando al máximo las capacidades de la red ya existente. Las ventajas de DOCSIS 3.0 son:
  • Más seguridad. DOCSIS 3.0 incorpora el nuevo estándar de encriptado de tráfico AES, más robusto que el actual DES.
  • Más ancho de banda. Existen varias mejoras para soportar mayores anchos de banda, como un mejor soporte del multicast, el aumento del rango de frecuencias descendentes hasta 1 GHz y el "channel bonding" que permite emplear varios canales simultáneamente, tanto en subida como en bajada. DOCSIS 3.0 alcanza velocidades de bajada superiores a los 160 Mbps y de subida superiores a los 60 Mbps, frente a los máximos de 40 Mbps de bajada y 30 Mbps que soportaba DOCSIS 2.0.
  • Soporte de IPv6. La compatibilidad con IPv6, que sustituirá al actual IPv4 empleado durante más de 20 años. Esta es una novedadad muy importante, pues la migración de IPv4 a IPv6 que se ha retrasado durante los últimos años, es imposible demorarla más (véase http://ramonmillan.blogspot.com/search/label/IPv6).


A pesar de las ventajas de DOCSIS 3.0, el futuro de las HFC pasa por el despliegue de fibra hasta el abonado, empleando tecnologías como GPON.

miércoles, 16 de julio de 2008

Beneficios de la VoIP


La telefonía IP o voz sobre IP (VoIP), trata la voz como si fuera un dato más, aunque la red convergente IP la trata de forma distinta para cumplir sus exigentes requisitos en cuanto a alta disponibilidad, baja pérdida de paquetes, bajo retardo y bajo jitter.
Las principales ventajas de esta tecnología, ya ampliamente extendida entre las empresas, los podemos resumir en:
  • Precios más baratos. Las operadoras emplean redes IP ya constituidas y en muchos casos internacionales, con un coste inferior a las de conmutación de circuitos que transportaban la voz tradicional. Las llamadas, por lo tanto, pueden ser ofrecidas con un coste fijo, independientemente del destino e incluso entre oficinas ubicadas en distintos países. El caso más drástico sería Skype, con un coste de llamadas y videollamadas nulo de PC a PC, porque utiliza la propia red Internet. Sin embargo, en este caso, la voz no es priorizada sobre el resto de datos y la calidad de la llamada es inferior, además de menos segura. El ahorro de costes se produce también porque con la VoIP las empresas sólo necesitan un cableado, es decir, hay una sóla red con un sólo punto de administración, lo que reduce la inversión inicial y los gastos de mantenimiento.
  • Portabilidad de las extensiones telefónicas. Esto aporta una gran flexibilidad para el usuario o trabajador y un gran ahorro para las empresas. Los traslados de puesto de trabajo son habituales en las grandes empresas y suponen unos costes muy altos para éstas. Los teléfonos IP facilitan la movilidad y en cualquier teléfono se puede fácilmente programar el número del usuario, con lo cual se facilitan los traslados y el teletrabajo.
  • Más funciones. Con la VoIP se pueden utilizar las funciones tradicionales de la voz analógica, como: buzón de voz, desvío programado de llamada, ocultación del número, bloqueo de llamadas salientes y entrantes, multiconferencia, etc. Pero también posibilita otras funciones más avanzadas, como la videollamada.

Transición de la Web 2.0 a la Web 3.0


Aunque no hay una definición estándar, podríamos decir que la Web 1.0 ofrece la posibilidad de disfrutar de múltiples servicios destinados a la comunicación, información y ocio en cualquier momento y lugar a través de Internet. La base es el lenguaje HTML que permite crear documentos multimedia entrealzados entre sí.
Con la Web 2.0 se consigue un Internet más participativo e interactivo, los propios usuarios se convierten en creadores de contenidos que pueden difundir a cualquier lugar del mundo. Las redes sociales permiten la "democratización" de Internet: los usuarios dejan de ser agentes pasivos y, con poca experiencia, son capaces de difundir sus productos, servicios, ideas y opiniones. Pero Internet sigue siendo un medio aún complejo para muchos usuarios y, además, el crecimiento exponencial en la cantidad de información que ofrece ha hecho más difícil encontrar lo que realmente se está buscando.
La próxima generación de Internet, la Web 3.0 se espera que tenga lugar alrededor del año 2012. El objetivo es conseguir un Web semántica o inteligente, que permita convertir la información en conocimiento, ordenar y clasificar los contenidos de la Web para que los propios ordenadores sean capaces de interpretarlos y tomar decisiones a través del cruce de datos. También conseguir una Web multiplataforma, que los usuarios sean capaces de acceder a Internet desde distintos dispositivos disfrutando de los mismos servicios. Es decir, la Web conoce a cada persona y se adapta a ella, así como al tipo de terminal y ancho de banda que emplea en ese momento.

Una buena presentación introductoria en inglés:
http://www.w3.org/2008/Talks/0520-bratt-BDigital/W3C-Web-3.0p.pdf
Un buen artículo introductorio en castellano:

martes, 15 de julio de 2008

Sobresubscripción del tráfico upstream en GPON

En la red GPON, que tiene una estructura de red punto a multipunto, los distintos equipos finales (hasta 64 ONT por puerto GPON de la OLT) comparten el ancho de banda upstream (hacia arriba). La OLT es la responsable de la asignación del ancho de banda a las ONT de acuerdo con los contratos comerciales. Para que los recursos de la red sean empleados eficientemente, la OLT debe implementar un método para asignar el ancho de banda dinámicamente, respondiendo a los cambios en las demandas de tráfico de las distintas ONT.
El estándar ITU-T G.983.4 define el mecanismo de DBA (Dynamic Bandwidth Allocation) en una red PON. DBA es el proceso por el cual las ONT (y sus T-CONT asociados) solicitan ancho de banda upstream dinámicamente y el método, a través de la monitorización de las celdas “vacías” en la OLT o el reporte del estádo de los búferes de las ONT a la OLT, por el que la OLT reasigna el ancho de banda upstream correspondiente.
DBA introduce los contenedores de tráfico (T-CONT), que son flujos de tráfico upstream dentro de la OLT, a los cuales la OLT asigna ancho de banda. Los T-CONT pueden ser de tres tipos según puedan ser provisionados con una tasa de bit fija, asegurada o máxima (no asegurado + best effort). El ancho de banda fijo siempre es asignado, se utilice o no. El ancho de banda asegurado no se asigna siempre, pero de necesitarse, se garantiza su asignación. Cuando no se necesite, el ancho de banda asegurado será asignado a otros servicios (definidos en otros T-CONT) u otros usuarios. Finalmente, el ancho de banda máximo se asigna siempre y cuando haya otros usuarios en la red que no estén empleando su ancho de banda asegurado.

lunes, 14 de julio de 2008

Convergencia IP total con GPON

GPON (Gigabit Passive Optical Networks) es una tecnología que permite una convergencia total de todos los servicios de telecomunicaciones. Los servicios Triple Play en las operadoras de cable separan por lo general el vídeo (Vídeo RF sobre cable coaxial) e Internet (cablemodems sobre cable coaxial) de la voz (conmutación de circuitos generalmente sobre par trenzado de cobre). En las operadoras tradicionales con par de cobre la voz es separada de los datos en el DSLAM, es decir, aunque la TV e Internet se basan en IP, para la voz se sigue empleando conmutación de circuitos. GPON permitirá una integración total de todas las capas de red. Es una tecnología que requiere un gran rendimiento en los nodos de acceso. Los DSLAM estaban optimizados para trabajar con tráfico de Internet -best effort- y un bajo número de abonados, alrededor de 1.500 por DSLAM. Los nodos GPON están preparados para trabajar con más de 7.000 abonados haciendo uso de todo tipo de servicios con grandes exigencias de calidad de servicio (QoS). GPON permite grandes ahorros a las operadoras porque permite ofrecer servicios de próxima generación, incluso totalmente unicast, sobre una misma red completamente IP. Además la arquitectura hasta el hogar basada en fibra supone grandes ahorros respecto a las arquitecturas de cobre: mayores distancias hasta el abonado reduciendo el número de centrales, mayor integración de número de abonados por nodo activo reduciendo el número de nodos activos por central, distribución basada en punto a multipunto reduciendo el tendido de cables, infraestructura de acceso totalmente pasiva reduciendo la alimentación y puntos de fallos, etc.

viernes, 11 de julio de 2008

Retos de la VoIP en las redes convergentes IP

Después de muchos años hablando de VoIP, con un notable éxito en el entorno PC en Internet (Skype, Messenger, Google Talk, etc.) y en centralitas privadas PBX IP para empresas, esta aplicación llega al mercado masivo a partir de las nuevas tecnologías convergentes, con GPON a la cabeza. La migración a VoIP requerirará de cambios fundamentales en las actuales infraestructuras de red IP de los operadores, pues son muchos sus requerimientos específicos mucho más exigentes que la mayoría de las aplicaciones de datos:
  • Nuevos protocolos. En primer lugar hay varios algoritmos de codificación de la voz, cuyo fin principal es hacer un uso más eficiente del ancho de banda. Cada codec (G.711, G.723, etc.) tiene sus ventajas e inconvenientes. En cuanto a los protocolos de transporte, para minimizar los retardos las llamadas de voz -es preferible no recibir un paquete que recibirlo demasiado tarde- emplean RTP (Real Time Transfer Protocol) sobre UDP. Para el control y establecimiento de llamada, dependiendo del fabricante, se emplean H.323 o SIP sobre UDP o TCP. Hasta no hace mucho, lo general era que los fabricantes se apoyasen en H.323, sin embargo, SIP está ganando adeptos en la actualidad. Los sistemas de gestión de red deberán ser capaces de tratar con todos estos protocolos.
  • Muy alta disponibilidad. La VoIP requiere una mayor disponibilidad que las aplicaciones de datos típicas. El usuario espera que cada vez que levanta el teléfono pueda conseguir el tono de llamada y poder cursar una llamada. Se habla siempre de una disponibilidad del 9,9999.
  • Muy baja pérdida de paquetes. La pérdida de paquetes para que haya una calidad de voz aceptable, no debe exceder el 1%. Sin embargo, es importante que, de producirse la pérdida de paquetes, sea de un modo regular, pues las ráfagas si que tendrían un gran impacto sobre la calidad de la voz.
  • Muy bajo retardo. El retardo de extremo a extremo asociado a una llamada de voz, según el ITU-T, no debe exceder de 150 ms (si bien en determinados escenarios se puede llegar a alcanzar los 250 ms sin afectar sensiblemente a la calidad).
  • Muy bajo jitter. La voz debe seguir un orden estricto en el transcurso de una conversación. Según la RFC 1889 el jitter o desviación en el retardo del paquete -ya sea positiva o negativa- para el protocolo RTP, no debe sobrepasar los 30 ms.
En definitiva, la voz es por lo tanto mucho más que una aplicación más que corre sobre una red IP y es preciso un diseño de red efectivo y posterior supervisión y control, con especial atención a la calidad de servicio (QoS) y disponibilidad, para asegurar su calidad.

jueves, 10 de julio de 2008

Telefónica "sale" a la calle


En un mercado cada día más competitivo, la lealtad de los clientes es esencial para garantizar la sostenibilidad y rentabilidad del negocio. Telefónica lo tiene claro, es una empresa orientada al cliente que trata de enfocar sus recursos en cuatro prioridades: convertir a sus clientes en fans, impulsar una compañía más innovadora, desarrollar un modelo operativo integrado, y contar con profesionales comprometidos y motivados.
Telefónica de España realiza la venta de sus productos y servicios a empresas, principalmente, mediante la venta personal. Para la venta a particulares, hasta ahora el principal canal era el telefónico e Internet. Sin embargo, Telefónica ha decidido impulsar la venta personal a sus clientes como una nueva forma de conocer mejor sus necesidades y ofrecer un servicio más personalizado. De este modo, durante el año 2008 aumentará en 1.000 los puntos de venta totalmente integrada, lo que supondrá cerrar el año con 3.600 puntos de venta en los que está presente toda su oferta.
En julio Telefónica ha abierto su tienda más emblemática. Está en Gran Vía, 28, en pleno centro de Madrid, la impresionante sede histórica de Telefónica reconvertida en un espacio tecnológico y comercial de 3.000 metros cuadrados. El área abierta al público del edificio lo conforman las tres primeras plantas:

  • En la primera planta está la parte más comercial de la tienda. El visitante es recibido por una pantalla gigante con las principales ofertas comerciales de Telefónica. La planta se divide en diversos ambientes: un espacio para niños, uno con soluciones de accesibilidad para personas con algún tipo de discapacidad, otro con todos los terminales celulares que tiene Telefónica en el mercado y otra sala dedicada a la oferta de televisión digital. En cada zona hay personal especializado que guiará a los clientes. Los visitantes pondrán usar todos los dispositivos, desde móviles a teléfonos fijos, pasando por ordenadores, televisiones y consolas.
  • En la segunda planta los ciudadanos podrán realizar visitas guiadas para conocer el hogar del futuro, pues hay una recreación de dos viviendas en las que puede verse y tocarse la tecnología y los servicios que Telefónica está probando antes de lanzarlos al mercado. Además del sistema de alarmas el usuario podrá probar otras innovaciones: cómo la puerta de la casa se puede abrir con el móvil, cómo se encienden las luces y se selecciona la temperatura de la casa desde el móvil, cómo la pantalla táctil de la entrada permite configurar todas las funciones de la vivienda, cómo se despliega automáticamente el toldo de la venta al salir el sol, etc. En todo momento, los asesores técnicos ayudarán a los usuarios a resolver dudas y problemas. También hay un área de la pyme y del autónomo, con demostraciones y pruebas de las soluciones pensadas para ellos.
  • La tercera planta recogerá un museo, exposiciones y muestras de todos los fondos propiedad de la Fundación Telefónica.

martes, 8 de julio de 2008

FTTH vs FTTB

La instalación de fibra óptica hasta los hogares supondrá una fuente de ingresos enorme, por la posibilidad de ofrecer un catálogo de servicios inimaginable a día de hoy con grandes capacidad de ancho de banda y la de reducir enormemente los costes operativos. Sin embargo, también requiere fuertes sumas de dinero en nueva infraestructura de fibra óptica y equipos GPON, así como en nueva obra civil donde habrá que involucrar a ayuntamientos y comunidades de vecinos para abrir canalizaciones.
La adopción de la tecnología FTTH (fibra hasta el hogar) o FTTB (fibra hasta el edificio)/FTTN (fibra hasta el nodo o inmediaciones del edificio) por parte del operador dependende de muchos factores: entorno regulatorio, capacidad de inversión, capacidad de realizar nuevas acometidas sobre el edificio, calidad del par de cobre instalado, etc. Generalmente FTTH es la opción ideal para nuevos edificios y FTTB para edificios existentes.
FTTB en vez de una ONT (Optical Network Terminator) en casa del abonado emplea una MDU (Multi-Drewling Unit) en el edificio. En ambos casos, la conexión con el equipo OLT en la central (Optical Line Terminal) se realiza por fibra óptica, pero cambian las interfaces hacia el abonado: GbE (datos y vídeo) y RJ-11 (voz) en la ONT y VDSL2 en la MDU (se trata de un mini-DSLAM).

Ventajas de FTTB/FTTN respecto a FTTH:
  • Tiempo de despliegue menor para ofrecer servicios que demandan más ancho de banda y distancias que ADSL2+. El operador no necesita negociar el despliegue de fibra dentro del edificio hasta las casas de los clientes.
  • Inversión inicial menor, debido a la reutilización de la infraestructura de cobre existente. Hay un ahorro en coste de tramitación de licencias, coste de mano de obra de ingeniería e instalación y coste de fibra óptica.

Desventajas de FTTB/FTTN respecto a FTTH:

  • Si en vez de FTTB se emplea una arquitectura FTTN, los anchos de banda soportados por VDSL2 no podrían ser ofrecido a todos los clientes.
  • El coste operacional es mayor debido a la existencia de más protocolos y dispositivos, que suponen más puntos de fallos y una mayor complejidad en la monitorización de la red.

sábado, 5 de julio de 2008

¿Nueva crisis en el sector de las "telecos"?


La crisis de las telecomunicaciones que desde el año 2000 azotó a las empresas tecnológicas a nivel mundial se manifestó en los años 2002 y 2003 en toda su crudeza: despidos masivos y quiebras de algunas grandes operadoras (otras no quebraron porque el Estado vino en su ayuda) lo confirman. Esta era una crisis principalmente financiera, debido al alto precio pagado por las operadoras por las licencias 3G y los altos endeudamientos adquiridos por los suministradores de equipos para el desarrolo de tecnologías emergentes y la alta competitividad fruto de la intercionalización. Se llegó al mercado con una tecnología móvil de banda ancha, la 3G, que parecía la "panacea", pero para la que los usuarios no estaban listos.
En la actualidad, las operadoras de telecomunicaciones generan grandes flujos de caja, pero su nivel de endeudamiento es relativamente elevado, debido a las fuertes pérdidas sufridas en el pasado, el proceso de integración de las redes fijas y móviles en una red convergente y el proceso de adquisiciones para generar sinergias entre los distintos negocios internacionales. Además, los operadores deberán afrontar fuertes inversiones para poder ampliar su catálogo de servicios mediante el despliegue de fibra hasta el hogar FTTH, una tecnología para la que esta vez sí están listos los usuarios.
Los suministradores están sufriendo estas consecuencias con mayor intensidad debido a la entrada de los suministradores asiáticos, como Huawei y ZTE. Los suministradores chinos están "rompiendo" el mercado en base a precios mucho más bajos que los tradicionales competidores europeos (ALU, Ericsson, NSN, etc.) y americanos (Nortel, Morotorla, Tellabs, etc.).
Este sector ligado a la innovación, sufre con más intensidad la caída de la demanda por la desaceleración económica y la prudencia inversora de los mercados financieros. El aumento del poder de compra de los operadores y la presión de márgenes, dará lugar a un proceso de concentración de los suministradores, donde sólo unas pocos suministradores multionacionales sobrevivirán. Estos suministradores ofrecerán un amplio catálogo de equipos, servicios y software para redes de telecomunicaciones para operadoras y empresas. Trabajarán en tecnologías estratégicas como "resellers" o "partners" de pequeñas empresas, mucho más flexibles y rápidas para la I+D. Este proceso, que ya ha comenzado, no estará exento de reestructuraciones de plantillas y venta de activos que han dejado de ser estratégicos.
Desde luego, nadie puede quejarse de que en el sector de las telecomunicaciones sea "aburrido"...

viernes, 4 de julio de 2008

El hiperspector de las TIC en España crece un 6% en 2007


Según datos del informe AETIC (Asociación de Empresas de Electrónica, Tecnologías de la Información y Comunicaciones) 2007 el hipersector de las TIC crece un 6% en 2007 en España con un volumen de negocio de 101.353 millones de euros. El hipersector TIC incluye los servicios de telecomunicación, las tecnologías de la información, las industrias de telecomunicación, la electrónica de consumo, la electrónica profesional, los componentes electrónicos, y otros segmentos entre los que se encuentran los contenidos audiovisuales o la electrónica del automóvil.
De esta forma, aunque se ha producido una cierta desaceleración del crecimiento, que ha pasado del 9% y el 10% de los últimos años a un 6%, el hipersector sigue mostrando un notable -aunque desigual- empuje. El subsector de la electrónica de consumo experimenta el mayor aumento, el 11%, gracias a las ventas de televisores de pantalla plana con decodificador TDT integrado. El mercado de los servicios de telecomunicación registra un alza de un 4% y alcanza los 44.236 millones de euros. El gasto en I+D se incrementa un 17% con respecto a 2006 y logra una inversión de más de 2.000 millones de euros. El sector de la electrónica, las tecnologías de la información y las telecomunicaciones alcanzó en 2007 un valor de mercado de 77.977 millones de euros, lo que representa un incremento del 5% en relación con el pasado ejercicio.
Creo que el año 2008 y 2009 se va a producir un estancamiento e incluso ligero decrecimiento respecto a 2007. Generalmente las tasas de crecimiento del sector de las nuevas tecnologías suele crecer al doble que el PIB y el PIB de España no va a pasar del 1,5%, con unas tasas de inflación de alrededor del 5% y con un notable descenso del consumo. Esto va a producir un estancamiento tecnológico, un sector que aporta innovación y productividad en todos los ámbitos económicos. Todavía no se ven medidas estructurales claras que hagan de España un foco para la creación e inversión en empresas altamente tecnológicas. Esto, junto a una energía cara por la apuesta a una carta por las caras y aún poco eficientes "energías renovables" (aunque no la producimos y perdemos rentabilidad y puestos de trabajo internos, compramos la energía nuclear a Francia que pone sus centrales cerca de nuestras fronteras) y esto repercute negativamente en todos los sectores de actividad.
Más información:

miércoles, 2 de julio de 2008

Búsquedas de archivos Flash

Google ya es capaz de indexar archivos Flash (*.swf) en su buscador. Yahoo! Search tendrá también esta importante funcionalidad pronto disponible. Flash es un lenguaje de programación muy empleado para el desarrollo de sitios Web dinámicos. Se emplea para crear gráficos animados, vídeos, animaciones, anuncios, mini-juegos... incluso sitios Web enteros. El lenguaje ha tenido un gran éxito en el mercado. Este gran avance en los buscadores es fruto de un proyecto de colaboración de Google, Yahoo! y Adobe.
Hasta ahora, los buscadores sólo reconocían que un determinado contenido estaba hecho en Flash, pero no eran capaces de saber qué había dentro. Por ello, las consultoras SEO recomendaban que la información más relevante (texto y enlaces) de una página Web siempre estuviese disponible en formato HTML, para que los buscadores pudiesen indexarlo y mostrarlo como resultados de búsqueda. A partir de ahora, ya no será necesario repetir trabajo y bastará con mostrar el contenido deseado en Flash.
En cualquier caso, esto es un primer paso y todavía quedan hitos por cumplir. Por ejemplo, todavía Google no es capaz de indexar archivos Flash activados por JavaScript.
Más información: