
Estrategia tecnológica en redes y servicios convergentes de banda ancha fija y móvil
sábado, 28 de junio de 2008
Estado de los servicios y contenidos móviles

viernes, 27 de junio de 2008
Liberan la creación de dominios

Actualmente, existen más de 270 extensiones de dominios de primer nivel: 250 de ellas son geográficas (".es", ".fr", ".cn", etc.) y 20 genéricas (".com", ".net", ".org", etc.). Los dominios serán liberalizados y los usuarios y empresas también podrán crear dominios con extensiónes como ".cocacola", ".madrid", ".ronaldo", etc. De este modo, las marcas, nombres de ciudades, nombres propios, etc., se podrán convertir en dominios de Internet. También se ha aprobado que los dominios puedan escribirse en alfabetos diferentes a los romanos (de los países occidentales), como asiáticos, árabes u otros que actualmente no están contemplados.
El regulador de los dominios aún debe especificar los detalles de esta nueva medida y su puesta en marcha no llegará, al menos, hasta el primer semestre del año 2009. El precio podrían rondar los 100.000 dólares, por lo cual sólo unos "pocos" podrán crearlas. Algunos expertos prevén la aparición de unos 5.000 nuevos dominios de alto nivel.
Para evitar posibles problemas, el ICANN se asegurará, de que las nuevas extensiones de dominios respeten los derechos de las marcas (por ejemplo, ".cocacola" sólo podrá ser creado por la empresa Coca-Cola) y de que no se parezcan demasiado a nombres ya conocidos (como ".kom" o ".comm") , además de no usurpar identidades de comunidades reconocidas ni implicar problemas de orden público o moral. Para ello, las personas que quieran su propio dominio tendrán que demostrar un plan de negocio y capacidad técnica, y las empresas podrán hacer valer su propiedad intelectual.
jueves, 26 de junio de 2008
Aceleración de la carga de un sitio Web
Puesto que ofrecer un sitio Web con una versión para usuarios con conexiones de banda estrecha (módem, móvil, etc.) y otra para usuarios con conexiones de banda ancha (cable, ADSL, FTTH, etc.) es costoso de desarrollar y mantener, la alternativa más efectiva es tratar de mejorar la velocidad de carga de las páginas Web.
La velocidad de carga puede mejorarse desde el punto de vista del usuario existen varias herrameintas, en muchos casos gratuitas, que permiten cargar de forma más rápida sitios Web: Google Web Accelerator, FastNet Connection Accelerator, Tweak Master, etc. Estas herramientas emplean técnicas diversas, como: creación de una caché con las páginas por las que ya ha navegado el usuario, compresión de la página Web para su transmisión, optimización de los protocolos instalados en el sistema operativo, etc.
El problema de estas herrramientas es que el diseñador Web no tiene control sobre su uso. Sin embargo, existen distintas técnicas de programación que permiten acelerar la carga de páginas Web. La guía online "Best Practices for Speeding Up Your Web Site", proporciona una serie de pautas para conseguir este objetivo. La lista incluye 34 consejos con los detalles para su puesta en funcionamiento, divididos en 7 categorías: contenidos, servidor, cookies, CSS, JavaScript, imágenes y móvil.
Medición de audiencias con Google

El lanzamiento de la nueva herramienta ha venido acompañado de fuertes críticas, porque Google no permite analizar el tráfico de varios de sus sitios Web (Google, YouTube, Picasa, Okurt, etc.) siguiendo su política de no facilitar pistas sobre sus finanzas internas. No obstante, de momento Google no permite que el propietario de cualquier otro sitio Web impida la medición de audiencias en su sitio. La herramienta tampoco proporciona medidas sobre otro tipo de sitios Web como: los que tienen un volumen de tráfico bajo o los que no desean estar indexados en Google.
El funcionamiento es muy sencillo. Sólo hay que indicar la dirección del sitio Web del que se desea conocer la audiencia e inmediatamente se muestra un gráfico en el que se reflejan el número de usuarios únicos. En la parte baja se muestra el país de donde proceden los visitantes, así como otros sitios Web que esos mismos usuarios han visitado y las palabras o frases que han buscado. El único requerimiento para acceder a estos datos es tener una cuenta de Google.
domingo, 22 de junio de 2008
Beneficios del VOD (Video On Demand)

El VOD es un servicio que está disponible tecnológicamente desde hace años, pero que requiere de un ancho de banda muy elevado, pues hay que considerar que varios abonados "colgando" del mismo nodo de acceso podrían estar disfrutándolo al mismo tiempo. Es decir, es factible de ser ofrecido sobre redes DSL con pocos abonados de IPTV, aunque sólo para abonados cercanos a la central del operador. Este canal es totalmente dedicado y personalizado, es decir, los nodos de acceso no pueden aprovechar de técnicas de multicast para minimizar el ancho de banda necesario por la red para satisfacer la petición del abonado.
Este servicio es, de hecho, utilizado en muchos hoteles para ofrecer no sólo vídeo, también música, juegos, etc. Algunos proveedores de IPTV sobre DSL ofrecen actualmente este tipo de servicio (en el caso de Telefónica sobre su plataforma de Imagenio). Sin embargo este servicio sería insostenible sobre DSL cuando se incremente la base de usuarios de IPTV, que en la actualidad no es posible en muchas ocasiones por inviabilidad técnica (problemas de distancia, calidad del par de cobre, etc.). FTTH/FTTB, gracias a sus elevados anchos de banda sobre una distancia mucho mayor que las tecnologías tradicionales, permitirá que todos los usuarios puedan disfrutar. Además, estos canales podrán ser de televisión de alta calidad o HDTV.
El vídeo bajo demanda es lo que permitirá a los proveedores actuales de IPTV y cableoperadoras diferenciarse de sus competidores de satélite y TDT. Además, de conseguir la fidelidad del cliente, también ofrece una fuente de ingresos adicional, pues el usuario pagará por ver esa película o programa. En este modelo también caben "tarifas planas" ofreciendo un cierto número de programas bajo demanda de visionado gratuito al mes. Otra de sus interesantes posibilidades para el proveedor es la capacidad de ofrecer publicidad personalizada, pudiendo atraer así inversiones de agencias de publicidad.
sábado, 21 de junio de 2008
Lista de superordenadores
- Roadrunner - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz , Voltaire Infiniband
- BlueGene/L - eServer Blue Gene Solution
- Blue Gene/P Solution
- Ranger - SunBlade x6420, Opteron Quad 2Ghz, Infiniband
- Jaguar - Cray XT4 QuadCore 2.1 GHz
- JUGENE - Blue Gene/P Solution
- Encanto - SGI Altix ICE 8200, Xeon quad core 3.0 GHz
- EKA - Cluster Platform 3000 BL460c, Xeon 53xx 3GHz, Infiniband
- Blue Gene/P Solution
- SGI Altix ICE 8200EX, Xeon quad core 3.0 GHz
viernes, 20 de junio de 2008
El superordenador más potente del mundo

miércoles, 18 de junio de 2008
El superordenador más eficiente del mundo
A pesar de que está de moda el grid computing, que ha demostrado que es una tecnología que permite ofrecer grandes capacidades de procesamiento a bajo coste, la carrera para conseguir el superordenador más potente sigue adelante. Desde el pasado mayo el superordenador más eficiente energéticamente del mundo está precisamente en España, más en concreto, en Zaragoza. Su nombre es Janus y es capaz de realizar hasta 90 billones de operaciones por segundo.La concepción y el diseño de Janus se llevó a cabo por un grupo de investigadores españoles e italianos coordinados por el Instituto de Biocomputación y Física de Sistemas Complejos (BIFI) de la Universidad de Zaragoza. El invento será comercializado por la empresa italiana Eurotech. Janus está compuesto de 16 placas y dispone de 256 procesadores para hacer simulaciones. Su potencia en los problemas para lo que ha sido diseñado es equivalente a unos 100.000 procesadores convencionales. El resultado es un procesador dedicado que permite resolver cualquier tipo de problema. Además es el ordenador más eficiente del mundo energéticamente, pues consume 15 kw cuando trabaja a máxima potencia.
De nuevo los investigadores españoles demuestran que cuando hay recursos, consiguen resultados. Los investigadores de este proyecto son serios candidatos al premio "Gordon Bell Prize", considerado como los Nobel de la Computación. Por fin podrán resolverse problemas (comportamiento de proteínas, diseño de fármacos, cambio climático, formación y evolución del universo, etc.)... a los que hasta ahora habría sido imposible dar solución.
Beneficios de un blog corporativo

martes, 17 de junio de 2008
Tabla comparativa de sistemas Unix

Puedes acceder a ella en:
http://bhami.com/rosetta.html
http://bhami.com/unix-rosetta.pdf
lunes, 16 de junio de 2008
Diferencias entre el Grid y el P2P

El grid y el P2P aunque tienen un objetivo similar, la organización coordinada de los recursos compartidos dentro de comunidades virtuales, se centran en distintas comunidades y, por lo tanto, tienen distintos requerimientos:
- Los sistemas grid han sido desarrollados de acuerdo a los requerimientos de comunidades profesionales que necesitan acceso a recursos remotos, datos dispersos, y grandes computadoras, para la simulación a gran escala y el análisis de datos complejos. Las comunidades de grid suelen ser pequeñas y tener una naturaleza dinámica, dependiendo del proyecto concreto que aborden. En cambio, el P2P se ha popularizado porque cualquiera puede formar parte de dichas comunidades. En estas comunidades formadas por individuos anónimos y muy diversos, existe muy poco incentivo a trabajar cooperadamente, y el comportamiento es más “egoísta”.
- Los sistemas grid integran recursos que son más potentes y variados y que están mejor conectados, que los recursos P2P típicos. Un recurso en grid puede ser un clúster, un sistema de almacenamiento, una base de datos, o un instrumento científico de considerable valor; mientras que los recursos en P2P suelen ser los ordenadores personales típicos de los hogares.Las aplicaciones grid son muy variadas y complejas, abarcando todo tipo de problemas científicos. La calidad de servicio es muy importante en las aplicaciones grid, pues se está pagando por esos recursos. Las aplicaciones de P2P actuales son, en cambio, bastante más sencillas y están destinadas, en su gran mayoría, a la compartición de ficheros.
- Los sistemas grid suelen afrontar problemas de comunidades científicas de reducido tamaño, pero en los que la cantidad de actividad requerida es enormemente elevada. Por lo tanto, la escalabilidad no es un requisito al que se le preste mucha atención. Sin embargo, las comunidades P2P son muy grandes, por lo que los sistemas deben prestar especial atención al hecho de que puede haber millones de nodos trabajando simultáneamente.
- El entorno de grid ha trabajado duramente para crear una infraestructura estándar para el desarrollo de aplicaciones, que ofrezca servicios para la autenticación, autorización, descubrimiento, acceso a recursos, movimiento de datos, etc. Esta plataforma de desarrollo es el Globus Toolkit, la implementación más famosa de la arquitectura OGSA. En cambio, los sistemas P2P se han centrado en la integración de recursos sencillos mediante protocolos propietarios; de esta forma, un usuario participando en Gnutella, Kazaa y SETI@home, debe ejecutar tres aplicaciones independientes, cada una codificada para ejecutar sus propios protocolos sobre sus propias redes superpuestas. Esta falta de estandarización puede explicarse en la sencillez de las aplicaciones P2P desarrolladas hasta el momento. No obstante, ya han comenzado a proponerse infraestructuras de desarrollo estándar para sistemas P2P, tales como JXTA, con una aceptación cada vez mayor.
domingo, 15 de junio de 2008
Medir el éxito en Internet con Emezeta Rank

viernes, 13 de junio de 2008
La UE rechaza la creación de un único regulador de telecomunicaciones paneuropeo
jueves, 12 de junio de 2008
Telecomunicaciones ecológicas
La fabricación de equipos de telecomunicaciones respetuosos con el medio ambiente se está convirtiendo en una obligación en todo el mundo, tal y como ha ido ocurriendo con electrodomésticos, coches, viviendas, etc. Ya no es sólo importante conseguir procesos de fabricación cuidadosos con el medio ambiente que den lugar a aparatos que no superen los niveles estipulados de sustancias peligrosas, cada vez es más importante que consuman menos energía.La mayoría de los operadores de telecomunicaciones y fabricantes de equipos están muy conciados con el sostenimiento del planeta. El problema es que estas empresas socialmente responsables en ocasiones se encuentran en desventaja, porque conseguir eliminar los componentes peligrosos, lograr el reciclado de los productos, que éstos consuman menos y que el respeto del medio ambiente sea consistente en todo su ciclo de vida, tiene un coste económico y de cambio cultural, pues hay que mentalizar no sólo a los empleados, también a los proveedores, distribuidores y clientes.
martes, 10 de junio de 2008
Beneficios de la publicidad online

- Porque es el medio que más crece. En el 2007 creció un 55,39% debido principalmente a la saturación de la TV, el incremento de los precios y la aquilatación de los presupuestos de marketing.
- Por su alta penetración. Internet tiene una notable penetración en todos los segmentos y, en especial, los jóvenes. La popularización de la banda ancha aumentará aún más la penetración.
- Por su notable cobertura. Internet tiene ya una notable cobertura para target altamente comerciales, especiamente , entre personas de 18-44 años de clase media alta, hábitat urbano, de gran poder
adquisito, y acostumbrados a las nuevas tecnologías e innovaciones. - Por su excelente afinidad. Internet es el medio más eficaz por su alta afinidad con targets jóvenes y comerciales. Por lo tanto, es un medio excelente para mejorar en estos targets el recuerdo, notoriedad, intención de compra, etc.
- Por su capacidad de segmentación. Internet se caracteriza por que permite acercarse a los consumidores con mucha eficacia y de forma no intrusiva, mediante soportes como el advergaming, blogs, etc.
- Por su natural interactividad. Internet permite interactuar con el usuario con el objetivo de crear una relación estable y duradera, pudiendo así vender los productos y servicios de forma más personalizada.
- Por su ilimitada creatividad. Las posibilidades creativas del medio son excelentes para los distintos objetivos de branding, información, distribución o venta, siendo el vídeo la última novedad en las campañas.8.
- Por su capacidad de branding. La publicidad en Internet mejora el recuerdo y acelera la difusión del mensaje publicitario.
- Por ser un gran canal de información, venta y distribución. Internet es un excelente medio de información previa a la compra final. Para la distribución y venta, tienes ventajas como la comodidad, y la interactividad genera multiples ventajas en los procesos de relación con los clientes (promociones, fidelización, información, etc.).
- Por su capacidad de seguimiento, reporting y análisis en tiempo real. El anunciante tiene la capacidad de obtener resultados a corto plazo ya que puede supervisar la campaña en tiempo real y reaccionar ante la misma gracias a la flexibilidad que ofrece Internet.
Un buen resumen de las notables ventajas de medio, al que quiza faltaría añadir su carácter global (lo cual genera grandes economías de escala en la inversión) y su posibilidad de acceder desde cualquier dispositivo cómodamente en en cualquier momento y lugar (lo cual mejora su eficacia).
lunes, 9 de junio de 2008
Medición de audiencias con Alexa

Alexa obtiene estas estadísticas de tráfico a partir de aquellos usuarios que tienen instalado el Toolbar de Alexa en su navegador o aquellos que tienen implementada su misma funcionalidad. De este modo, cada vez que visitamos un sitio Web, la barra de herramientas de Alexa envía información a este servidor para realizar su clasificación y, además, nos informa del ranking del sitio y de los datos de la persona o empresa responsable de éste. Para evitar la producción de páginas vistas por parte de motores automáticos, lo cual falsearía la medida, Alexa considera varias peticiones de la misma dirección por el mismo usuario en el mismo día como una sóla página vista.
Aunque por muchos motivos no sea una muestra perfectamente exacta de la población de Internet, el ranking puede ayudarnos en muchos aspectos de cara a actividades de marketing: emplearlo como un complemento a nuestras medidas internas de audiencias (en Alexa, por ejemplo, no se registran las visitas realizadas por los robots de los buscadores), comparar nuestra audiencia con la de otros competidores, analizar el impacto que tendrán los enlaces que insertamos en otros sitios Web, etc.
sábado, 7 de junio de 2008
Pilares de la convergencia de las "telecos" europeas
El estudio también hace mención al sector de tecnología, medios y telecomunicaciones en Europa y establece que se producirá un incremento anual del 3,8%, así como aumento en el gasto mensual de los hogares desde los 215 euros registrados en 2007 hasta los 265 euros de media en 2012. La banda ancha, tanto fija como móvil, la publicidad a través de Internet y los sistemas, hardware y software relacionados con dispositivos móviles, serán los principales motores del crecimiento del sector.
El estudio considera que los proveedores medianos de banda ancha se ven cada vez más presionados por la aparición de las ofertas empaquetadas de voz, banda ancha y televisión, la fibra óptica y, en algunos, casos por la banda ancha móvil. Segñun el estudio estos proveedores acabarán siendo comprados por las grandes compañías de fijo u operadores de móvil y el número de proveedores de fijo y móvil se reducirá de siete a cuatro en los mercados europeos en los próximos dos años. Para la consultora, estos resultados no significan la desaparición de las comunicaciones fijas sino que lo que se precisará será una mayor integración de la red fijo-móvil. Los operadores móviles tendrán que tener negocio en el entorno del fijo y viceversa. Esto será positivo para los proveedores de servicios, pero negativo para los fabricantes de equipos de teleocmunicaciones. Según Arthur D. Little, la demanda de convergencia fijo-móvil por parte de los clientes está aún por emerger, pero la integración tiene sentido porque facilita el desarrollo de ofertas convergentes fijo-móvil, ofrece alcance para sinergias significativas en costes y porque comprar un activo fijo es un modo de protegerse estratégicamente para una compañía puramente de móvil.
viernes, 6 de junio de 2008
¿Qué ancho de banda requieren los nuevos servicios de telecomunicaciones?
La completa convergencia de la red en torno a IP exige anchos de banda mínimos de 20 MB de subida y 50 MB de bajada:
- 3-4 Mb canales SDTV en bajada (los tradicionales)
- 12-18 Mb para cada canal HDTV en bajada (alta definición)
- 10-30 Mb para Internet y otros contenidos del operador en bajada y 1-10 Mb en subida
- 2-3 Mb juegos en línea
- 128 kb VoIP
- 4 Mb videoconferencia
GPON permite una velocidad de línea de 2,5 Gbps downstream (de la central al usuario) y 1,25 Gbps upstream (de los abonados hacia la central) sobre distancias de hasta 20 km. Además la eficiencia es muy alta (es decir, el overhead introducido para el control es muy bajo), de alrededor del 92%. Upstream se tiene DBA (Dynamic Bandwidth Allocation) que permite la sobresubscripción, es decir, el ancho de banda que no emplean en ese momento otros usuarios, puede ser utilizado por otros usuarios que lo necesiten. Se definen para ello un ancho de banda fijo, asegurado y máximo por servicio de cada abonado. Downstream tenemos broadcast, es decir, todos los usuarios reciben todos los paquetes (similar al cable), aunque mediante técnicas de encriptación AES muy potentes, cada usuario sólo puede procesar lo que va dirigido a él. Esto
permite que, cuando se distribuya un canal de vídeo que están viendo varios abonados, únicamente se envíe una réplica a lo largo de la línea. Algunos equipos, ofrecen además potentes técnicas de multicasting y control de admisión y del ancho de banda con potentes técnicas de QoS. Aún así, la enorme cantidad de canales de televisión que quieren ofrecer los operadores, así como el desarrollo de servicios multimedia interactivos aún más avanzados, harán que las capacidades de GPON queden obsoletas en unos años, pues el tráfico está evolucionando hacia una arquitectura unicast (punto a punto o P2P). Por ello es importante para las operadoras optar por equipos GPON con capacidad de ampliar la capacidad hacia su MAN y con caminos de evolución hacia 10G PON y WDM PON.
miércoles, 4 de junio de 2008
¿Por fin IPv6?

Recientemente la Organización para la cooperación y desarrollo (OCDE) ha alertado a los Gobiernos de que las direccions de Internet han llegado a su límite (en la actualidad sólo están libres el 16% de las direcciones IPv4) y se agotarán en 2010 o 2011. La solución pasa ineludiblemente por IPv6. Las direcciones en IPv6, descritas en la RFC 2373, soportan un número de bits que cuadriplica al utilizado por las de IPv4. Así, mientras el espacio de direccionamiento total en IPv4 es de 2elevado32 (4.294.967.296), en IPv6 lo es de 2elevado128 (340.282.366.920.938.463.463.374.607.431.768.211.456). Para hacerse una idea del tremendo espacio de direcciones disponible, se suele indicar que esto supone, en un sentido teórico, 665.570.793.348.866.943.898.599 direcciones por metro cuadrado de la superficie del planeta Tierra (asumiendo que la superficie de la Tierra tiene 511.263.971.197.990 metros cuadrados).
Actualmente existen varias iniciativas de migración a IPv6 en marcha. El proyecto, 6Choice (en el cual trabaja Telefónica I+D) tiene como objetivo coordinar las iniciativas existentes y estimular otras nuevas, para cooperar en el despliegue operativo de la tecnología IPv6 en Europa y en la India. El objetivo de la UE es migrar a IPv6 antes del año 2010. Existen en la actualidad ya varias empresas que han migrado sus redes a IPv6, como Telefónica I+D o la Universidad Politécnica de Madrid. Otro ejemplo es la operadora NTT en Japón, que emplea IPv6 para conectar miles de sensores de terremotos a través de un sistema informático. Incluso Google ha lanzado recientemente una versión de su buscador con este nuevo protocolo. La dirección es ipv6.google.com y sólo es accesible a quien se conecte a través de IPv6.
Más información en:
martes, 3 de junio de 2008
Tendido de cables submarinos de fibra óptica
La importancia de los cables de fibra submarinos es enorme. Los cables submarinos concentran la mayor parte de los datos transmitidos en el mundo, con alrededor del 90% del tráfico. El 10% restante se transmite mediante satélites. El cable tiene como ventajas la menor latencia y su mayor capacidad de transmisión. A pesar de ser enlaces caros, su coste por bit transmitido también es menor que el de los satélites, que también requieren de una inversión muy elevada, tanto en el propio satélite como en su posterior lanzamiento.
Tradicionalmente estos sistemas empleaban las tecnologías de transmisión DWDM más avanzadas del momento. Por ejemplo, los transpondedores de solitones o los amplificadores EDFA tuvieron en estos enlaces su aplicación inicial. La demanda de capacidad está llevando a que se empleen sistemas terrestres con las mismas novedades técnicas que incluso los sistemas de cable submarino, tal y como se explica en el artículo: http://www.ramonmillan.com/documentos/dwdm_redestelecom.pdf. Los sistemas de cableado submarino se extienden a través de los océanos y, en términos generales, cuentan con puntos intermedios instalados cada 4.000 Km máximo por tierra y constituidos por OTM. Los OLA son empalmados al cable cada unos 60 Km con el fin de amplificar la señales ópticas.
El tendido de cable sumarino es sumamente complejo. Para canalizar la fibra por tramos seguros se emplean barcos especializados que llevan a cabo una investigación geofísica y geotécnica de la ruta propuesta. De localizarse obstáculos, estos barcos son capaces de encontrar otras alternativas. La ruta definida se debe ejecutar con una precisión de 100 metros, incluso cuando el cable se tiende a profundidades de hasta 8.000 metros.
El tendido comienza situando el cable de fibras ópticas a flote desde el barco de cableado hasta la posición de tierra. Cuando el extremo del cable está asegurado en la orilla, las bolsas que mantenín el cable a flote se retiran, permitiendo que el cabe se asiente en el mar. Después, el barco de cableado sigue su ruta predeterminada: o con el cable enterrado en el lecho marino -lo que ayuda a prevenir peligros de rastreadoreso anclas de barcos- o bien, tendido en la superficie, conforme sea requerido. Los ajustes para tensar el cable y para posicionar el barco se hacen de forma continuada para asegurar la conformidad con la ruta del cable. Cuando el cable llega a su punto de tierra destino, un extremo del mismo -que ha sido previamente instalado y mantenido a flote- se lleva a bordo y se empalma al cable que está siendo tendido. El tendido también puede hacerse también mediante dos barcos, en vez de uno. En este caso, los barcos parten de diferentes áreas geográficas y van desenrollando y sumergiendo el cable, hasta que se encuentran en un punto determinado del océano, es ahí donde se realiza la conexión de los dos puntos. Finalmente, después de comprobar que el enlace funciona correctamente, sumergen los dos extremos de los cables conectados.
Puedes encontrar más información en:
lunes, 2 de junio de 2008
Documentos PDF con vídeo y animaciones en Flash
A partir de ahora, este formato se ha convertido en totalmente multimedia. El nuevo Acrobat 9.0 permite generar documentos en el popular formato PDF de Adobe junto a animaciones, imágenes en movimiento y vídeos en Flash. Todo en un único archivo. Esta funcionalidad supondrá, a buen seguro, un fuerte impulso a la proliferación del "libro electrónico" y a la mejora de la calidad de la "teleformación". También creará un nuevo medio para el "marketing electrónico", de hecho, Adobe había cerrado recientemente un acuerdo con Yahoo! para insertar publicidad interactiva en los documentos PDF.
domingo, 1 de junio de 2008
Principales diferencias entre H.323 y SIP
Existen bastantes diferencias entre estos dos protocolos de VoIP. H.323 es un estándar de la ITU-T mientras que SIP, es un estándar más nuevo del IETF. Ambos protocolos realizan las mismas tareas básicas de telefonía (establecimiento de llamada y señalización de su inicio, tonos de marcación y terminación), así como la señalización de características de su mantenimiento, identificación y transferencia de llamadas. Sin embargo, mientras que en las redes H.323 estas tareas dependen de un servidor central (con terminales "tontos" en los extremos), SIP asume un
esquema más descentralizado, desplazando cierta inteligencia hacia los clientes (teléfonos, PC, dispositivos inalámbricos, etc.).
Las principales diferencias podemos resumirlas en:
- H.323 se presentó como una evolución de SS7, diseñado para el control de la señalización en redes de conmutación de circuitos. Por el contrario, SIP está más cercano a HTTP, empleado en Internet, paradigma de red de paquetes. De cara al futuro, es mejor decantarse por SIP.
- En ambos casos, los flujos de información multimedia se transportan haciendo uso de RTP, por lo que la elección de un protocolo de control u otro no influye de manera directa en la calidad con que se ofrecen los servicios.
- H.323 es mucho más complejo que SIP. Tiene cientos de mensajes diferentes codificados en binario. en SIP, por el contrario, los mensajes son de texto y muy sencillos tanto en su sintaxis como en su semántica. Por lo tanto, H3.23 complica el trabajo a los desarrolladores, así como a los administradores de redes a la hora de localizar problemas.
- La arquitectura cliente/servidor de SIP es más fácil de implementar, al igual que sus mecanismos de seguridad y de gestión. H323 envía muchos mensajes a la red, con el riesgo potencial de crear congestión. Además, resulta difícil de personalizar.
- SIP es más fácilmente extensible y, por lo tanto, se puede adaptar mejor a las necesidades futuras de los usaurios. H.323 presenta un mayor número de limitaciones en este sentido.
Todo el mundo coincide en afirmar que el futuro está en SIP, que además es empleado por IMS (IP Multimedia Subsystem). El problema es que actualmente no ha alcanzado la madurez de H.323. Por ello, la mayoría de las soluciones comerciales se basan a día de hoy en H.323.
La explosión del tráfico Diameter en las redes LTE
Oracle Communications ha publicado recientemente su cuarta edición del " Oracle Communications LTE Diameter Signaling Index ". En ...
-
El protocolo OMCI ( ONT Management and Control Interface ) es el protocolo estándar de GPON para el control por parte de la OLT (equipo de c...
-
Existen bastantes diferencias entre estos dos protocolos de VoIP. H.323 es un estándar de la ITU-T mientras que SIP , es un estándar más nu...
-
Ahora que se acerca el MWC, me gustaría comparar la logística del MWC de Barcelona y el CeBIT de Hannover , tras mi experiencia del año pas...