sábado, 28 de junio de 2008

Estado de los servicios y contenidos móviles


El mercado de servicios y contenidos para móviles es la envidia de los proveedores de este tipo de aplicaciones en Internet. El modelo establecido ha conquistado a los consumidores consiguiendo controlar la piratatería y haciendo un negocio muy rentable. Los juegos, tonos y salvapantallas para móviles ya tienen su espacio, y el vídeo y la música están comenzando a despegar.
Los operadores confianzan en este modelo como vía de diferenciación entre elos mismos y de liderar el mercado de datos por móvil. Cada operador suele tener su propia plataforma: Live de Vodafone, emoción de Telefónica, i-mode de NTTDoCoMo, etc. Sin embargo, para que el mercado termine por completo de explotar los operadores y proveedores tienen que incrementar sus inversiones en marketing y establecer precios más justos para comercializar los servicios, basándose en modelos como el de pago por evento, suscripcion, etc. Hasta ahora, ha funcionado el modelo de tráfico, pero eso está cambiando a un modelo de tarificación por uso de la aplicación y por tráfico.
Netsize ofrece una amplia guía gratuita en inglés que resume el estado de este mercado a nivel mundial en 2008. Para descargar la guía en PDF sólo es necesario registrarse.

viernes, 27 de junio de 2008

Liberan la creación de dominios


El XXXII Congreso del ICANN (Internet Corporation for Assigned Names and Numbers) celebrado este mes, ha puesto en marcha la liberalización en el proceso de asignación de dominios de Internet.
Actualmente, existen más de 270 extensiones de dominios de primer nivel: 250 de ellas son geográficas (".es", ".fr", ".cn", etc.) y 20 genéricas (".com", ".net", ".org", etc.). Los dominios serán liberalizados y los usuarios y empresas también podrán crear dominios con extensiónes como ".cocacola", ".madrid", ".ronaldo", etc. De este modo, las marcas, nombres de ciudades, nombres propios, etc., se podrán convertir en dominios de Internet. También se ha aprobado que los dominios puedan escribirse en alfabetos diferentes a los romanos (de los países occidentales), como asiáticos, árabes u otros que actualmente no están contemplados.
El regulador de los dominios aún debe especificar los detalles de esta nueva medida y su puesta en marcha no llegará, al menos, hasta el primer semestre del año 2009. El precio podrían rondar los 100.000 dólares, por lo cual sólo unos "pocos" podrán crearlas. Algunos expertos prevén la aparición de unos 5.000 nuevos dominios de alto nivel.
Para evitar posibles problemas, el ICANN se asegurará, de que las nuevas extensiones de dominios respeten los derechos de las marcas (por ejemplo, ".cocacola" sólo podrá ser creado por la empresa Coca-Cola) y de que no se parezcan demasiado a nombres ya conocidos (como ".kom" o ".comm") , además de no usurpar identidades de comunidades reconocidas ni implicar problemas de orden público o moral. Para ello, las personas que quieran su propio dominio tendrán que demostrar un plan de negocio y capacidad técnica, y las empresas podrán hacer valer su propiedad intelectual.

jueves, 26 de junio de 2008

Aceleración de la carga de un sitio Web

Cuando se programa un sitio Web existe un compromiso entre la calidad de los contenidos y la velocidad de carga de las páginas. Con motivo de la proliferación de la banda ancha entre los usuarios domésticos, muchos diseñadores Web han incrementado la cantidad y calidad de sus páginas Web: imágenes de alta resolución, animaciones en Flash, etc. No obstante, esto puede perjudicar la velocidad de carga entre los usuarios con menores velocidades, que siguen siendo muchos, generando una mala experiencia de usuario y reduciendo las posibilidades de que sus clientes visiten de nuevo su sitio Web.
Puesto que ofrecer un sitio Web con una versión para usuarios con conexiones de banda estrecha (módem, móvil, etc.) y otra para usuarios con conexiones de banda ancha (cable, ADSL, FTTH, etc.) es costoso de desarrollar y mantener, la alternativa más efectiva es tratar de mejorar la velocidad de carga de las páginas Web.
La velocidad de carga puede mejorarse desde el punto de vista del usuario existen varias herrameintas, en muchos casos gratuitas, que permiten cargar de forma más rápida sitios Web: Google Web Accelerator, FastNet Connection Accelerator, Tweak Master, etc. Estas herramientas emplean técnicas diversas, como: creación de una caché con las páginas por las que ya ha navegado el usuario, compresión de la página Web para su transmisión, optimización de los protocolos instalados en el sistema operativo, etc.
El problema de estas herrramientas es que el diseñador Web no tiene control sobre su uso. Sin embargo, existen distintas técnicas de programación que permiten acelerar la carga de páginas Web. La guía online "Best Practices for Speeding Up Your Web Site", proporciona una serie de pautas para conseguir este objetivo. La lista incluye 34 consejos con los detalles para su puesta en funcionamiento, divididos en 7 categorías: contenidos, servidor, cookies, CSS, JavaScript, imágenes y móvil.

Medición de audiencias con Google


Ha aparecido un nuevo competidor para Alexa y Nielsen Netratings en la medición de audiencias en Internet. Google acaba de lanzar la versión beta de Google Trends for Websites, que permite conocer el tráfico de un sitio Web y los lugares de procedencia de los usuarios. También se pueden comparar estos datos con hasta cinco Webs diferentes al mismo tiempo. Trends for Websites combina los datos de sus búsquedas, con los de Google Analytics, añade unos datos tomados a partir de encuestas a internautas e incluye información de estudios independientes de mercado. La información de Trends for Websites muestra el tráfico del último mes por lo que la compañía actualizará sus cifras con un plazo máximo de 30 días.
El lanzamiento de la nueva herramienta ha venido acompañado de fuertes críticas, porque Google no permite analizar el tráfico de varios de sus sitios Web (Google, YouTube, Picasa, Okurt, etc.) siguiendo su política de no facilitar pistas sobre sus finanzas internas. No obstante, de momento Google no permite que el propietario de cualquier otro sitio Web impida la medición de audiencias en su sitio. La herramienta tampoco proporciona medidas sobre otro tipo de sitios Web como: los que tienen un volumen de tráfico bajo o los que no desean estar indexados en Google.
El funcionamiento es muy sencillo. Sólo hay que indicar la dirección del sitio Web del que se desea conocer la audiencia e inmediatamente se muestra un gráfico en el que se reflejan el número de usuarios únicos. En la parte baja se muestra el país de donde proceden los visitantes, así como otros sitios Web que esos mismos usuarios han visitado y las palabras o frases que han buscado. El único requerimiento para acceder a estos datos es tener una cuenta de Google.

domingo, 22 de junio de 2008

Beneficios del VOD (Video On Demand)


El servicio estrella sobre las redes FTTH/FTTB (EPON, GPON, etc.) será el vídeo bajo demanda (también conocido por vídeo a la carta o televisión a la carta) o VOD (Video On Demand). VOD es un sistema que permite al usuario acceder a contenidos audiovisuales con la misma calidad o superior que el resto de canales de televisión y controlar su modo de reproducción (pausa, rebobinado, avance, etc.), como si se tratase de un DVD doméstico. A diferencia de los canales de televisión, que son difundidos en broadcast/multicast, estos contenidos son emitidos en unicast desde un servidor de vídeo, teniendo como destinatario el descodificador o STB que cursó la petición (es por lo tanto necesario un canal de retorno).
El VOD es un servicio que está disponible tecnológicamente desde hace años, pero que requiere de un ancho de banda muy elevado, pues hay que considerar que varios abonados "colgando" del mismo nodo de acceso podrían estar disfrutándolo al mismo tiempo. Es decir, es factible de ser ofrecido sobre redes DSL con pocos abonados de IPTV, aunque sólo para abonados cercanos a la central del operador. Este canal es totalmente dedicado y personalizado, es decir, los nodos de acceso no pueden aprovechar de técnicas de multicast para minimizar el ancho de banda necesario por la red para satisfacer la petición del abonado.
Este servicio es, de hecho, utilizado en muchos hoteles para ofrecer no sólo vídeo, también música, juegos, etc. Algunos proveedores de IPTV sobre DSL ofrecen actualmente este tipo de servicio (en el caso de Telefónica sobre su plataforma de Imagenio). Sin embargo este servicio sería insostenible sobre DSL cuando se incremente la base de usuarios de IPTV, que en la actualidad no es posible en muchas ocasiones por inviabilidad técnica (problemas de distancia, calidad del par de cobre, etc.). FTTH/FTTB, gracias a sus elevados anchos de banda sobre una distancia mucho mayor que las tecnologías tradicionales, permitirá que todos los usuarios puedan disfrutar. Además, estos canales podrán ser de televisión de alta calidad o HDTV.
El vídeo bajo demanda es lo que permitirá a los proveedores actuales de IPTV y cableoperadoras diferenciarse de sus competidores de satélite y TDT. Además, de conseguir la fidelidad del cliente, también ofrece una fuente de ingresos adicional, pues el usuario pagará por ver esa película o programa. En este modelo también caben "tarifas planas" ofreciendo un cierto número de programas bajo demanda de visionado gratuito al mes. Otra de sus interesantes posibilidades para el proveedor es la capacidad de ofrecer publicidad personalizada, pudiendo atraer así inversiones de agencias de publicidad.

sábado, 21 de junio de 2008

Lista de superordenadores

El rendimiento de las computadoras más rápidas se multiplica por mil aproximadamente cada 11 años, explican los editores de la lista de los "Top 500" de computadoras más potentes. El primer ordenador que superó el teraflop (un billón de flops) es del año 1996.
La lista a Junio de 2008 está encabezada por:
  1. Roadrunner - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz , Voltaire Infiniband
  2. BlueGene/L - eServer Blue Gene Solution
  3. Blue Gene/P Solution
  4. Ranger - SunBlade x6420, Opteron Quad 2Ghz, Infiniband
  5. Jaguar - Cray XT4 QuadCore 2.1 GHz
  6. JUGENE - Blue Gene/P Solution
  7. Encanto - SGI Altix ICE 8200, Xeon quad core 3.0 GHz
  8. EKA - Cluster Platform 3000 BL460c, Xeon 53xx 3GHz, Infiniband
  9. Blue Gene/P Solution
  10. SGI Altix ICE 8200EX, Xeon quad core 3.0 GHz

viernes, 20 de junio de 2008

El superordenador más potente del mundo


IBM acaba de lanzar el superordenador más potente del mundo, doblando la potencia de cálculo del hasta entonces número 1, el BlueGene/L también de IBM. Su nombre es "Roadrunner" (correcaminos en inglés) y emplea un sistema de procesadores híbrido con 6.562 procesadores Core Duo AMD Opteron (diseñados originariamente para ordenadres x86) y 12.240 procesadores Cell (diseñados originariamente para la videoconsola PlayStation 3).
Esta máquina, que pertenece al Ejército de EEUU, es capaz de procesar 1.026 billones (10 elevado a 15) operaciones por segundo, lo que implica que rompe la barrera histórica del petaflop por segundo. El límite de velocidad previsto para esta máquina es de 1,6 petaflops, o 1.600 billones de cálculos por segundo. Para hacernos una idea, si los 6.000 millones de habitantes de la Tierra usaran calculadoras de mano durante las 24 horas del día, todos los días de la semana, tardarían 46 años en realizar todos los cálculos que "Roadrunner" realiza en un solo día.
"Roadrunner", que ha costado 133 millones de dólares, será instalada en el laboratorio militar estadounidense de Los Alamos, en Nuevo México. Su principal misión será el mantenimiento y protección del arsenal nuclear de EEUU, para ello, simulará el comportamiento de armas nucleares justo en el momento en el que estallarán.No obstante, también será utilizado para explorar problemas relacionados con el clima, ya que es capaz de simular modelos complejos con mayor facilidad.

miércoles, 18 de junio de 2008

El superordenador más eficiente del mundo

A pesar de que está de moda el grid computing, que ha demostrado que es una tecnología que permite ofrecer grandes capacidades de procesamiento a bajo coste, la carrera para conseguir el superordenador más potente sigue adelante. Desde el pasado mayo el superordenador más eficiente energéticamente del mundo está precisamente en España, más en concreto, en Zaragoza. Su nombre es Janus y es capaz de realizar hasta 90 billones de operaciones por segundo.
La concepción y el diseño de Janus se llevó a cabo por un grupo de investigadores españoles e italianos coordinados por el Instituto de Biocomputación y Física de Sistemas Complejos (BIFI) de la Universidad de Zaragoza. El invento será comercializado por la empresa italiana Eurotech. Janus está compuesto de 16 placas y dispone de 256 procesadores para hacer simulaciones. Su potencia en los problemas para lo que ha sido diseñado es equivalente a unos 100.000 procesadores convencionales. El resultado es un procesador dedicado que permite resolver cualquier tipo de problema. Además es el ordenador más eficiente del mundo energéticamente, pues consume 15 kw cuando trabaja a máxima potencia.
De nuevo los investigadores españoles demuestran que cuando hay recursos, consiguen resultados. Los investigadores de este proyecto son serios candidatos al premio "Gordon Bell Prize", considerado como los Nobel de la Computación. Por fin podrán resolverse problemas (comportamiento de proteínas, diseño de fármacos, cambio climático, formación y evolución del universo, etc.)... a los que hasta ahora habría sido imposible dar solución.

Beneficios de un blog corporativo


Cada vez es más habitual que muchas empresas empleen los blogs para comunicarse con sus clientes. Se trata de un medio de "moda" (lo cual siempre sirve para dar imagen de modernidad), directo y rápido de emplear, pues se puede introducir el contenido rápida y cómodamente en cualquier momento y lugar. Permite además la retroalimentación y la interactividad. Gracias a los RSS, los suscriptores pueden recibir las actualizaciones del blog a través de correo electrónico. Los blogs constituyen ya un canal de comunicación imprescindible a considerar en los Planes de Marketing y Comunicación de toda empresa que quiera estar ligada a las Nuevas Tecnologías. El blog puede estar liderado por el Departamento de Comunicación, pero también es habitual que ciertos Directivos y Expertos manifiesten sus opiniones en otros blog personales. Los diarios y revistas online y otros medios de información también han abierto sus puertas a varios redactores externos: los colabodoradores ganan en popularidad y las editoriales en contenidos y audiencia que traducen en más ingresos publicitarios.
Puedes encontrar otras ideas sobre las ventajas de los blog corporativos en:

martes, 17 de junio de 2008

Tabla comparativa de sistemas Unix


"La piedra Rosetta de Unix" compara diversos aspectos de los principales sistemas operativos basados en Unix: AIX de IBM, A/UX de Apple, DG/UX de Apple, FreeBSD, HP-UX de HP, IRIX de Sillicon Graphics, Linux, Mac OS X de Apple, NCR Unix, NetBSD, OpenBSD, Reliant de Fujitsu-Siemens, SCO OpenServer de UnixWare, Solaris de Sun, SunOS 4 de Sun, Tru64 de Digital, Ultrix, UNICOS de Cray y OS TASK. Esta excelente tabla resume los principales comandos y realiza una correlación entre los comandos equivalentes entre sistemas.
Como puedes observar, existen similitudes, pero también diferencias que complican las actividades de auditoría en los grandes centros de datos, compuestos en muchos casos por servidores con aplicaciones que se ejcutan sobre distintos sistemas operativos, incluido Windows. Sin embargo, la gran calidad de Linux, su carácter de código abierto y licencia gratuita, su compatibilidad con procesadores Intel y el apoyo de los principales proveedores de software e incluso fabricantes de máquinas y sistemas operativos Unix, auguran que en pocos años la mayor parte de estos sistemas operativos acaben desapareciendo.
Puedes acceder a ella en:
http://bhami.com/rosetta.html
http://bhami.com/unix-rosetta.pdf

lunes, 16 de junio de 2008

Diferencias entre el Grid y el P2P


El grid y el P2P aunque tienen un objetivo similar, la organización coordinada de los recursos compartidos dentro de comunidades virtuales, se centran en distintas comunidades y, por lo tanto, tienen distintos requerimientos:

  • Los sistemas grid han sido desarrollados de acuerdo a los requerimientos de comunidades profesionales que necesitan acceso a recursos remotos, datos dispersos, y grandes computadoras, para la simulación a gran escala y el análisis de datos complejos. Las comunidades de grid suelen ser pequeñas y tener una naturaleza dinámica, dependiendo del proyecto concreto que aborden. En cambio, el P2P se ha popularizado porque cualquiera puede formar parte de dichas comunidades. En estas comunidades formadas por individuos anónimos y muy diversos, existe muy poco incentivo a trabajar cooperadamente, y el comportamiento es más “egoísta”.
  • Los sistemas grid integran recursos que son más potentes y variados y que están mejor conectados, que los recursos P2P típicos. Un recurso en grid puede ser un clúster, un sistema de almacenamiento, una base de datos, o un instrumento científico de considerable valor; mientras que los recursos en P2P suelen ser los ordenadores personales típicos de los hogares.Las aplicaciones grid son muy variadas y complejas, abarcando todo tipo de problemas científicos. La calidad de servicio es muy importante en las aplicaciones grid, pues se está pagando por esos recursos. Las aplicaciones de P2P actuales son, en cambio, bastante más sencillas y están destinadas, en su gran mayoría, a la compartición de ficheros.
  • Los sistemas grid suelen afrontar problemas de comunidades científicas de reducido tamaño, pero en los que la cantidad de actividad requerida es enormemente elevada. Por lo tanto, la escalabilidad no es un requisito al que se le preste mucha atención. Sin embargo, las comunidades P2P son muy grandes, por lo que los sistemas deben prestar especial atención al hecho de que puede haber millones de nodos trabajando simultáneamente.
  • El entorno de grid ha trabajado duramente para crear una infraestructura estándar para el desarrollo de aplicaciones, que ofrezca servicios para la autenticación, autorización, descubrimiento, acceso a recursos, movimiento de datos, etc. Esta plataforma de desarrollo es el Globus Toolkit, la implementación más famosa de la arquitectura OGSA. En cambio, los sistemas P2P se han centrado en la integración de recursos sencillos mediante protocolos propietarios; de esta forma, un usuario participando en Gnutella, Kazaa y SETI@home, debe ejecutar tres aplicaciones independientes, cada una codificada para ejecutar sus propios protocolos sobre sus propias redes superpuestas. Esta falta de estandarización puede explicarse en la sencillez de las aplicaciones P2P desarrolladas hasta el momento. No obstante, ya han comenzado a proponerse infraestructuras de desarrollo estándar para sistemas P2P, tales como JXTA, con una aceptación cada vez mayor.

domingo, 15 de junio de 2008

Medir el éxito en Internet con Emezeta Rank



Me ha gustado el Emezeta Rank. Es una herramienta muy rápida y sencilla para estimar la popularidad de un sitio Web o blog en Internet. Para ello, emplea diversos criterios: la popularidad en diferentes redes de buscadores, la cantidad y calidad de referencias y enlaces, los ingresos mensuales que podría obtener si se incluyera publicidad, etc. En Emezeta Rank puedes hacerte una idea de los puntos fuertes y débiles de tu página Web de cara al posicionamiento en buscadores. En cada punto analizado, contiene abuntante información sobre los pasos a seguir para aumentar el éxito en dicho criterio.

viernes, 13 de junio de 2008

La UE rechaza la creación de un único regulador de telecomunicaciones paneuropeo

En un encuentro celebrado el pasado 12 de junio, los Ministros de los 27 estados miembros de la Unión Eurpea han rechazado la propuesta de la comisaria Viviane Reding para crear un único cuerpo regulativo de telecomunicaciones común en toda la UE. El hipotéticoorganismo tendría un poder en Europa equivalente al de la FCC (Federal Communication Commission) en Estados Unidos. La resolución no podía ser de otro modo, pues ninguno de los países quiere ceder competencias. Sin embargo, el crear una única agencia sería muy positivo para los ciudadanos europeos por muchos motivos, principalmente la reducción de costosos cargos políticos, el avance hacia una UE verdaderamente integrada y la aplicación de las mismas reglas del juego en todos los mercados. Es sorprendente, por ejemplo, ver como empresas semi-públicas en la UE tienen potestad para "opar" a empresas privadas de otros Estados miembro, siendo imposible el proceso contrario. Es también triste como hay una gran redundancia de cargos, generando eso unos costes enormes para todos los ciudadanos, que podrían ser empleados en mejorar muchos problemas estructurales: I+D, competitividad empresarial, etc. Pero además de ineficiente, es inefectivo, porque nadie quiere ceder y es muy difícil llegar a acuerdos.
Reding sí que recibió el apoyo a medidas que permitan la separación funcional entre infraestructuras y servicios de telecomunicaciones. Este sistema pretende servir de instrumento de presión sobre los antiguos monopolios para que abandonen prácticas que dificultan la competencia. La realidad es que para el despliegue de redes de nueva generación de fibra hasta el hogar, todos los operadores están en las mismas condiciones. Lo importante sería garantizar que la obra civil se comparte, pero que cada operador invierta en fibra en aquellas demarcaciones que le interese. La compartición que pretende la UE puede paralizar las inversiones de los grandes operadores y, de no ser así, minimizar las inversiones en infraestructura de red, habiendo muchas empresas europeas líderes en este sector. En este caso podríamos hablar también de sinergias, pero serían para los operadores, que son entes privados y que es bueno que compitan en tecnología, pues eso beneficia el desarrollo tecnológico, mejora la disponibilidad de ancho de banda, favorece la diversidad de ofertas particularizadas para distintos segmentos, etc. Es como si se obligase a todos los fabricantes de coches a emplear las mismas fabricas (el motivo en este caso podría ser reducir contaminación y consumo energético, porque para todo, siempre hay argumentos).

jueves, 12 de junio de 2008

Telecomunicaciones ecológicas

La fabricación de equipos de telecomunicaciones respetuosos con el medio ambiente se está convirtiendo en una obligación en todo el mundo, tal y como ha ido ocurriendo con electrodomésticos, coches, viviendas, etc. Ya no es sólo importante conseguir procesos de fabricación cuidadosos con el medio ambiente que den lugar a aparatos que no superen los niveles estipulados de sustancias peligrosas, cada vez es más importante que consuman menos energía.

La mayoría de los operadores de telecomunicaciones y fabricantes de equipos están muy conciados con el sostenimiento del planeta. El problema es que estas empresas socialmente responsables en ocasiones se encuentran en desventaja, porque conseguir eliminar los componentes peligrosos, lograr el reciclado de los productos, que éstos consuman menos y que el respeto del medio ambiente sea consistente en todo su ciclo de vida, tiene un coste económico y de cambio cultural, pues hay que mentalizar no sólo a los empleados, también a los proveedores, distribuidores y clientes.
Un ejemplo de es el uso de energías alternativas en telefonía móvil. Las antenas (BTS de GSM, nodos B de UMT, estaciones WiMax, etc.) tradicionalmente se alimentaban por energía eléctrica. No obstante, en los países en vías de desarrollo existen muchas zonas rurales donde hay serias carencias de energía eléctrica. Por ejemplo en África, la región del mundo que experimentó un mayor crecimiento porcentual en usuarios de telefonía móvil en 2007, con un 38%, sólo el 25% de la población tiene acceso a energía eléctrica. Para estos casos, la solución era alimentar las antenas mediantes generadores diesel, una tecnología efectiva pero no eficiente, sobre todo por el gran incremento de los precios del petroleo. Junto a la disminución del consumo de las actuales antenas y a sus menores necesidades de refrigeración, se une ahora la posibilidad de trabajar con energía solar, eólica, biocombustibles, etc. Las estaciones de radio móviles alimentadas por células solares parecen la mejor solución, aunque todo depende de la ubicación geográfica de la antena en cuestión.
Muchos os preguntareis... ¿Pero de qué sirve la antena si está ubicada en un pueblo sin energía eléctrica?... Pues, también hay soluciones para esto. Ericsson junto a la Universidad de Columbia han desarrollado un cargado solar para teléfonos móviles con el fin de llevar la telefónia móvil a varios pueblos de África.
Como comenta mi amigo José Manuel Huidobro en el artículo "Green IT" http://www.coit.es/publicaciones/bit/bit168/12.pdf, donde analiza esta misma conciencia ecológica en el sector de los sistemas información... lo "verde" está de moda... y más nos vale que dure...

martes, 10 de junio de 2008

Beneficios de la publicidad online


El IAB (Interactive Advertising Bureau) Spain, la asociación que representa al sector de la publicidad y la comunicación interactiva en España, en su informe "Quién es Quién en la publicidad online en España 2008" habla de las razones para invertir en actividades publicitarias Internet, resumiéndolo en 10 argumentos:
  1. Porque es el medio que más crece. En el 2007 creció un 55,39% debido principalmente a la saturación de la TV, el incremento de los precios y la aquilatación de los presupuestos de marketing.
  2. Por su alta penetración. Internet tiene una notable penetración en todos los segmentos y, en especial, los jóvenes. La popularización de la banda ancha aumentará aún más la penetración.
  3. Por su notable cobertura. Internet tiene ya una notable cobertura para target altamente comerciales, especiamente , entre personas de 18-44 años de clase media alta, hábitat urbano, de gran poder
    adquisito, y acostumbrados a las nuevas tecnologías e innovaciones.
  4. Por su excelente afinidad. Internet es el medio más eficaz por su alta afinidad con targets jóvenes y comerciales. Por lo tanto, es un medio excelente para mejorar en estos targets el recuerdo, notoriedad, intención de compra, etc.
  5. Por su capacidad de segmentación. Internet se caracteriza por que permite acercarse a los consumidores con mucha eficacia y de forma no intrusiva, mediante soportes como el advergaming, blogs, etc.
  6. Por su natural interactividad. Internet permite interactuar con el usuario con el objetivo de crear una relación estable y duradera, pudiendo así vender los productos y servicios de forma más personalizada.
  7. Por su ilimitada creatividad. Las posibilidades creativas del medio son excelentes para los distintos objetivos de branding, información, distribución o venta, siendo el vídeo la última novedad en las campañas.8.
  8. Por su capacidad de branding. La publicidad en Internet mejora el recuerdo y acelera la difusión del mensaje publicitario.
  9. Por ser un gran canal de información, venta y distribución. Internet es un excelente medio de información previa a la compra final. Para la distribución y venta, tienes ventajas como la comodidad, y la interactividad genera multiples ventajas en los procesos de relación con los clientes (promociones, fidelización, información, etc.).
  10. Por su capacidad de seguimiento, reporting y análisis en tiempo real. El anunciante tiene la capacidad de obtener resultados a corto plazo ya que puede supervisar la campaña en tiempo real y reaccionar ante la misma gracias a la flexibilidad que ofrece Internet.

Un buen resumen de las notables ventajas de medio, al que quiza faltaría añadir su carácter global (lo cual genera grandes economías de escala en la inversión) y su posibilidad de acceder desde cualquier dispositivo cómodamente en en cualquier momento y lugar (lo cual mejora su eficacia).

lunes, 9 de junio de 2008

Medición de audiencias con Alexa


Alexa es una compañía subsidiaria de Amazon, que ofrece uno de los medidores internacionales de audiencias más respetados. En concreto, mide la cantidad de visitantes que tiene una determinada Web.
Alexa obtiene estas estadísticas de tráfico a partir de aquellos usuarios que tienen instalado el Toolbar de Alexa en su navegador o aquellos que tienen implementada su misma funcionalidad. De este modo, cada vez que visitamos un sitio Web, la barra de herramientas de Alexa envía información a este servidor para realizar su clasificación y, además, nos informa del ranking del sitio y de los datos de la persona o empresa responsable de éste. Para evitar la producción de páginas vistas por parte de motores automáticos, lo cual falsearía la medida, Alexa considera varias peticiones de la misma dirección por el mismo usuario en el mismo día como una sóla página vista.
Aunque por muchos motivos no sea una muestra perfectamente exacta de la población de Internet, el ranking puede ayudarnos en muchos aspectos de cara a actividades de marketing: emplearlo como un complemento a nuestras medidas internas de audiencias (en Alexa, por ejemplo, no se registran las visitas realizadas por los robots de los buscadores), comparar nuestra audiencia con la de otros competidores, analizar el impacto que tendrán los enlaces que insertamos en otros sitios Web, etc.

sábado, 7 de junio de 2008

Pilares de la convergencia de las "telecos" europeas

El informe "In the Eye of the Telecom-Media Storm" publicado recientemente por Arthur D. Little y Exane BNP Paribas informa que la penetración de la banda ancha móvil en Europa alcanzará el 50% en 2012, lo que implica un crecimiento medio anual del beneficio del 2,6% para los operadores móviles en Europa durante los próximos cinco años. Por su parte, las comunicaciones fijas sufrirán una caída del 0,4% a pesar del aumento de ingresos en TV y contenidos.
El estudio también hace mención al sector de tecnología, medios y telecomunicaciones en Europa y establece que se producirá un incremento anual del 3,8%, así como aumento en el gasto mensual de los hogares desde los 215 euros registrados en 2007 hasta los 265 euros de media en 2012. La banda ancha, tanto fija como móvil, la publicidad a través de Internet y los sistemas, hardware y software relacionados con dispositivos móviles, serán los principales motores del crecimiento del sector.
El estudio considera que los proveedores medianos de banda ancha se ven cada vez más presionados por la aparición de las ofertas empaquetadas de voz, banda ancha y televisión, la fibra óptica y, en algunos, casos por la banda ancha móvil. Segñun el estudio estos proveedores acabarán siendo comprados por las grandes compañías de fijo u operadores de móvil y el número de proveedores de fijo y móvil se reducirá de siete a cuatro en los mercados europeos en los próximos dos años. Para la consultora, estos resultados no significan la desaparición de las comunicaciones fijas sino que lo que se precisará será una mayor integración de la red fijo-móvil. Los operadores móviles tendrán que tener negocio en el entorno del fijo y viceversa. Esto será positivo para los proveedores de servicios, pero negativo para los fabricantes de equipos de teleocmunicaciones. Según Arthur D. Little, la demanda de convergencia fijo-móvil por parte de los clientes está aún por emerger, pero la integración tiene sentido porque facilita el desarrollo de ofertas convergentes fijo-móvil, ofrece alcance para sinergias significativas en costes y porque comprar un activo fijo es un modo de protegerse estratégicamente para una compañía puramente de móvil.

viernes, 6 de junio de 2008

¿Qué ancho de banda requieren los nuevos servicios de telecomunicaciones?

Los servicios de nueva generación exigen unos incrementos considerables del ancho de banda respecto al alcanzable con las actuales redes basadas en ADSL/ADSL2/ADSL2+ sobre pares de cobre. Hoy en día, la mayoría de los internautas en España y el resto de países tienen contratadas velocidades inferiores a los 10 Mbps, una velocidad insuficiente para soportar los nuevos servicios que se avecinan y que pronto empezarán a ofrecer comercialmente los operadores. Aunque VDSL2 permite alcanzar velocidades de hasta 100 Mbps, tiene unas limitaciones muy grandes de distancias.
La completa convergencia de la red en torno a IP exige anchos de banda mínimos de 20 MB de subida y 50 MB de bajada:
  • 3-4 Mb canales SDTV en bajada (los tradicionales)
  • 12-18 Mb para cada canal HDTV en bajada (alta definición)
  • 10-30 Mb para Internet y otros contenidos del operador en bajada y 1-10 Mb en subida
  • 2-3 Mb juegos en línea
  • 128 kb VoIP
  • 4 Mb videoconferencia

GPON permite una velocidad de línea de 2,5 Gbps downstream (de la central al usuario) y 1,25 Gbps upstream (de los abonados hacia la central) sobre distancias de hasta 20 km. Además la eficiencia es muy alta (es decir, el overhead introducido para el control es muy bajo), de alrededor del 92%. Upstream se tiene DBA (Dynamic Bandwidth Allocation) que permite la sobresubscripción, es decir, el ancho de banda que no emplean en ese momento otros usuarios, puede ser utilizado por otros usuarios que lo necesiten. Se definen para ello un ancho de banda fijo, asegurado y máximo por servicio de cada abonado. Downstream tenemos broadcast, es decir, todos los usuarios reciben todos los paquetes (similar al cable), aunque mediante técnicas de encriptación AES muy potentes, cada usuario sólo puede procesar lo que va dirigido a él. Esto
permite que, cuando se distribuya un canal de vídeo que están viendo varios abonados, únicamente se envíe una réplica a lo largo de la línea. Algunos equipos, ofrecen además potentes técnicas de multicasting y control de admisión y del ancho de banda con potentes técnicas de QoS. Aún así, la enorme cantidad de canales de televisión que quieren ofrecer los operadores, así como el desarrollo de servicios multimedia interactivos aún más avanzados, harán que las capacidades de GPON queden obsoletas en unos años, pues el tráfico está evolucionando hacia una arquitectura unicast (punto a punto o P2P). Por ello es importante para las operadoras optar por equipos GPON con capacidad de ampliar la capacidad hacia su MAN y con caminos de evolución hacia 10G PON y WDM PON.

miércoles, 4 de junio de 2008

¿Por fin IPv6?


Han sido muchos los "parches" introducidos para conseguir alargar la vida del actual protocolo de Internet (IPv4) y evitar la migración al protocolo del futuro (IPv6). La migración a la nueva pila de protocolos TCP/IP es una de las pesadillas de las empresas tecnológicas y la paranoia puede superar incluso a la generada con el "efecto 2000".
Recientemente la Organización para la cooperación y desarrollo (OCDE) ha alertado a los Gobiernos de que las direccions de Internet han llegado a su límite (en la actualidad sólo están libres el 16% de las direcciones IPv4) y se agotarán en 2010 o 2011. La solución pasa ineludiblemente por IPv6. Las direcciones en IPv6, descritas en la RFC 2373, soportan un número de bits que cuadriplica al utilizado por las de IPv4. Así, mientras el espacio de direccionamiento total en IPv4 es de 2elevado32 (4.294.967.296), en IPv6 lo es de 2elevado128 (340.282.366.920.938.463.463.374.607.431.768.211.456). Para hacerse una idea del tremendo espacio de direcciones disponible, se suele indicar que esto supone, en un sentido teórico, 665.570.793.348.866.943.898.599 direcciones por metro cuadrado de la superficie del planeta Tierra (asumiendo que la superficie de la Tierra tiene 511.263.971.197.990 metros cuadrados).
Actualmente existen varias iniciativas de migración a IPv6 en marcha. El proyecto, 6Choice (en el cual trabaja Telefónica I+D) tiene como objetivo coordinar las iniciativas existentes y estimular otras nuevas, para cooperar en el despliegue operativo de la tecnología IPv6 en Europa y en la India. El objetivo de la UE es migrar a IPv6 antes del año 2010. Existen en la actualidad ya varias empresas que han migrado sus redes a IPv6, como Telefónica I+D o la Universidad Politécnica de Madrid. Otro ejemplo es la operadora NTT en Japón, que emplea IPv6 para conectar miles de sensores de terremotos a través de un sistema informático. Incluso Google ha lanzado recientemente una versión de su buscador con este nuevo protocolo. La dirección es ipv6.google.com y sólo es accesible a quien se conecte a través de IPv6.
Más información en:

martes, 3 de junio de 2008

Tendido de cables submarinos de fibra óptica

Las grandes inversiones requeridas originaron que tradicionalmente el sector del cable submarino estuviese liderado por empresas con un potente músculo financiero, operando frecuentemente en régimen de monopolio. Estas empresas se unían para la construcción de los más importantes enlaces, asegurándose el acceso a la capacidad y el control de los precios de la misma.
La importancia de los cables de fibra submarinos es enorme. Los cables submarinos concentran la mayor parte de los datos transmitidos en el mundo, con alrededor del 90% del tráfico. El 10% restante se transmite mediante satélites. El cable tiene como ventajas la menor latencia y su mayor capacidad de transmisión. A pesar de ser enlaces caros, su coste por bit transmitido también es menor que el de los satélites, que también requieren de una inversión muy elevada, tanto en el propio satélite como en su posterior lanzamiento.
Tradicionalmente estos sistemas empleaban las tecnologías de transmisión DWDM más avanzadas del momento. Por ejemplo, los transpondedores de solitones o los amplificadores EDFA tuvieron en estos enlaces su aplicación inicial. La demanda de capacidad está llevando a que se empleen sistemas terrestres con las mismas novedades técnicas que incluso los sistemas de cable submarino, tal y como se explica en el artículo: http://www.ramonmillan.com/documentos/dwdm_redestelecom.pdf. Los sistemas de cableado submarino se extienden a través de los océanos y, en términos generales, cuentan con puntos intermedios instalados cada 4.000 Km máximo por tierra y constituidos por OTM. Los OLA son empalmados al cable cada unos 60 Km con el fin de amplificar la señales ópticas.
El tendido de cable sumarino es sumamente complejo. Para canalizar la fibra por tramos seguros se emplean barcos especializados que llevan a cabo una investigación geofísica y geotécnica de la ruta propuesta. De localizarse obstáculos, estos barcos son capaces de encontrar otras alternativas. La ruta definida se debe ejecutar con una precisión de 100 metros, incluso cuando el cable se tiende a profundidades de hasta 8.000 metros.
El tendido comienza situando el cable de fibras ópticas a flote desde el barco de cableado hasta la posición de tierra. Cuando el extremo del cable está asegurado en la orilla, las bolsas que mantenín el cable a flote se retiran, permitiendo que el cabe se asiente en el mar. Después, el barco de cableado sigue su ruta predeterminada: o con el cable enterrado en el lecho marino -lo que ayuda a prevenir peligros de rastreadoreso anclas de barcos- o bien, tendido en la superficie, conforme sea requerido. Los ajustes para tensar el cable y para posicionar el barco se hacen de forma continuada para asegurar la conformidad con la ruta del cable. Cuando el cable llega a su punto de tierra destino, un extremo del mismo -que ha sido previamente instalado y mantenido a flote- se lleva a bordo y se empalma al cable que está siendo tendido. El tendido también puede hacerse también mediante dos barcos, en vez de uno. En este caso, los barcos parten de diferentes áreas geográficas y van desenrollando y sumergiendo el cable, hasta que se encuentran en un punto determinado del océano, es ahí donde se realiza la conexión de los dos puntos. Finalmente, después de comprobar que el enlace funciona correctamente, sumergen los dos extremos de los cables conectados.
Puedes encontrar más información en:

lunes, 2 de junio de 2008

Documentos PDF con vídeo y animaciones en Flash

PDF (Portable Document Format) es una forma de almacenamiento de documentos, desarrollado por la empresa Adobe Systems. Uno de sus principales beneficios es que es multiplataforma, es decir, puede ser visualizado por los principales sistemas operativos (Windows, Linux o Mac), sin que se modifique su aspecto o estructura original. Puede además guardar de forma comprimida una combinación de texto, gráficos e imágenes. Los archivos PDF tienen el mismo aspecto que los documentos originales, al tiempo que mantienen las fuentes, imágenes, gráficos y diseño de cualquier archivo original, independientemente de la aplicación o plataforma empleadas para crearlo. Puede cifrarse para proteger su contenido o incluso firmarlo digitalmente, favoreciendo así la distribución e intercambio seguro y fiable de documentos electrónicos. Por todo esto, PDF se ha convertido en uno de los formatos estándar más extendidos en Internet para el intercambio de documentos. Gobiernos, empresas y formadores de todo el mundo han adoptado el formato PDF de Adobe para agilizar la el intercambio de documentos, aumentar la productividad y reducir la dependencia del papel.
A partir de ahora, este formato se ha convertido en totalmente multimedia. El nuevo Acrobat 9.0 permite generar documentos en el popular formato PDF de Adobe junto a animaciones, imágenes en movimiento y vídeos en Flash. Todo en un único archivo. Esta funcionalidad supondrá, a buen seguro, un fuerte impulso a la proliferación del "libro electrónico" y a la mejora de la calidad de la "teleformación". También creará un nuevo medio para el "marketing electrónico", de hecho, Adobe había cerrado recientemente un acuerdo con Yahoo! para insertar publicidad interactiva en los documentos PDF.

domingo, 1 de junio de 2008

Principales diferencias entre H.323 y SIP

Existen bastantes diferencias entre estos dos protocolos de VoIP. H.323 es un estándar de la ITU-T mientras que SIP, es un estándar más nuevo del IETF. Ambos protocolos realizan las mismas tareas básicas de telefonía (establecimiento de llamada y señalización de su inicio, tonos de marcación y terminación), así como la señalización de características de su mantenimiento, identificación y transferencia de llamadas. Sin embargo, mientras que en las redes H.323 estas tareas dependen de un servidor central (con terminales "tontos" en los extremos), SIP asume un
esquema más descentralizado, desplazando cierta inteligencia hacia los clientes (teléfonos, PC, dispositivos inalámbricos, etc.).

Las principales diferencias podemos resumirlas en:

  • H.323 se presentó como una evolución de SS7, diseñado para el control de la señalización en redes de conmutación de circuitos. Por el contrario, SIP está más cercano a HTTP, empleado en Internet, paradigma de red de paquetes. De cara al futuro, es mejor decantarse por SIP.
  • En ambos casos, los flujos de información multimedia se transportan haciendo uso de RTP, por lo que la elección de un protocolo de control u otro no influye de manera directa en la calidad con que se ofrecen los servicios.
  • H.323 es mucho más complejo que SIP. Tiene cientos de mensajes diferentes codificados en binario. en SIP, por el contrario, los mensajes son de texto y muy sencillos tanto en su sintaxis como en su semántica. Por lo tanto, H3.23 complica el trabajo a los desarrolladores, así como a los administradores de redes a la hora de localizar problemas.
  • La arquitectura cliente/servidor de SIP es más fácil de implementar, al igual que sus mecanismos de seguridad y de gestión. H323 envía muchos mensajes a la red, con el riesgo potencial de crear congestión. Además, resulta difícil de personalizar.
  • SIP es más fácilmente extensible y, por lo tanto, se puede adaptar mejor a las necesidades futuras de los usaurios. H.323 presenta un mayor número de limitaciones en este sentido.

Todo el mundo coincide en afirmar que el futuro está en SIP, que además es empleado por IMS (IP Multimedia Subsystem). El problema es que actualmente no ha alcanzado la madurez de H.323. Por ello, la mayoría de las soluciones comerciales se basan a día de hoy en H.323.