Ir al contenido principal

Megaupload cierra y el P2P vuelve a crecer

Megaupload, portal lanzado en marzo de 2005, empleaba servidores centrales para almacenar los contenidos que intercambiaban los usuarios. Se trata así de un sistema de descarga directa, no de un sistema P2P descentralizado. Es decir, todo el material que circula está sobre servidores y, por lo tanto, Megaupload puede ser considerado responsable de todo lo que está ahí. Además, en un sistema tan centralizado, basta con imponer el cierre de los servidores para bloquear todo el sistema. Es más, Megaupload remuneraba a los clientes que más descargas generaban, a pesar que estas fueran protegidas por derechos de autor sobre las que no tenían ningún derecho de explotación o distribución. Según datos del FBI, Megaupload generaba el 4% del tráfico total de Internet, contaba con más de 150 millones de usuarios registrados y tenía más de 50 millones de visitas diarias. Megaupload estaba así destinado al cierre, tanto por su posible fomento o complicidad en el intercambio de contenidos protegidos por derechos de autor "ilícitamente", como por su enorme popularidad.
En cambio, las plataformas eMule o BitTorrent, emplean arquitecturas P2P puras. Es decir, estas redes no dependen de un servidor central, ni para la indexación de los contenidos ni para su almacenamiento y, por lo tanto, no tienen constancia de los archivos intercambiados. En consecuencia no hay servidores centrales que se puedan cerrar y no hay una entidad central que se pueda perseguir legalmente.
La forma en que se cierra Megaupload, sin embargo, genera muchas inquietudes legales en la comunidad de internautas, pues usuarios tenían contenidos perfectamente legales almacenados, han visto como han perdido todos sus datos, porque otros usuarios empleaban “ilícitamente” la plataforma. Estados Unidos tiene muchas empresas líderes en “cloud computing” (Amazon, Apple, Google, Microsoft, etc.) y el cierre de Megaupload, lejos de acabar con la piratería, generará una gran aversión a un modelo de negocio nuevo y que iba a generar grandes inversiones... ¿Quién se fía ahora de tener sus datos y aplicaciones importantes en la nube?...



Comentarios

  1. Buenas Noches Ramón, me atrevo a responder tu última pregunta sobre quien se fiaria de tener sus datos en la nube?. Pues considero que esto (cierre de megaupload) no debería de frenar la confianza de los IT Managers, porque el cierre del portal en mención, naturalmente tiene un transfondo de copyright.
    Lo importante en servicios "Cloud" es poder garantizar un servicio lo más cercano posible al 100% de disponibilidad y contratar con un operador, que garantice lo anterior; hablando claro para necesidad empresariales.

    ResponderEliminar
  2. Estimado Victor,
    Independientemente de las razones, las formas en el caso Megaupload no han sido las adecuadas para generar un entorno de futuro confiable. Por ejemplo, en los bancos, también hay clientes que a buen seguro tienen dinero negro, es más, incluso que el banco les "premie" (el banco lo que quiere es cuanto más dinero mejor, el origen de éste es algo de lo que no se preocupa). Si un cliente bancarios es "embargado" por sus supuestas actividades delictivas, e incluso si el banco es procesado por fomentarlas, el resto de clientes honestos no se deben ver afectados. El caso de Megaupload tiene el gravamen de que ese cierre ha sido fomentado por el FBI sobre servidores que están fuera del ámbito legislativo de Estados Unidos. En un modelo cloud computing, no tienes manera de controlar dónde están tus datos ni dónde se ejecutan tus aplicaciones y es importante empezar a trabajar en leyes supranacionales que generen un entorno estable, seguro y confiable, porque si no, habrá muchos problemas, lo que pasa que no nos anticiparemos a ellos.

    ResponderEliminar
    Respuestas
    1. Correcto.
      Entiendo entonces que la optica que les das es mas a un tema legislativo. Es cierto yo puedo ofrecer un servicio Cloud, y no necesariamente saber que albergan mis clientes; de esa manera puede que algún dia me cierren y todos quedamos "colgados". Buen punto, pero eso solo aplicaría para servicios de storage, tipo Megaupload, DropBox, hasta el mismo SkyDrive. Sin embargo las aplicaciones privadas (lease empresariales) como un CRM o ERP que generan información y son albergadas en la nube, no deberían verse afectadas.

      Creo yo.

      Victor Terrones
      www.laultimamilla.blogspot.com

      Eliminar
  3. buenas tardes Ramon Milan, me llamo andrea y soy una estudiante de la universidada experimental del tachira UNET, situada en venezuela, este primer semestre de ingeniera electronica nos pautaron como tarea crear un blog y concoer otros blogs referidos a nuestro tema me gustaria que pasaras por nuestro blog y nos ayduaras a conseguir mas visitas de personas interesadas la direccion es http://electroinformacion.blogspot.com/
    saludos

    ResponderEliminar

Publicar un comentario

Entradas populares de este blog

El protocolo OMCI

El protocolo OMCI ( ONT Management and Control Interface ) es el protocolo estándar de GPON para el control por parte de la OLT (equipo de central) de las ONT (equipo de abonado). Este protocolo permite: Establecer y liberar conexiones en la ONT Gestionar los puertos físicos de la ONT Solicitar información de configuración y estadísticas de rendimiento Informar autónomamente al operador del sistema de eventos, tales como cortes de fibra El protocolo OMCI se ejecuta sobre una conexión GEM ( GPON Encapsulation Method ) entre la controladora del a OLT y la controladora de la ONT y es establecido durante la fase de arranque de la ONT. El protocolo OMCI es asimétrico: el OLT es el maestro y la ONT es el esclavo. Un único OLT empleando diversas instancias del protocolo sobre canales de control independientes puede controlar múltiples ONTs. Los requerimientos de la OMCI dados en la recomendación G.984.4 de la ITU-T son necesarios para manejar la ONT en las siguientes áreas: Gestión de la conf

Bing: el nuevo buscador de Microsoft

Microsoft ha lanzado Bing , su nuevo buscador , con el que quiere ganar cuota de mercado ante Google, el líder absoluto de este exitoso negocio en todo el mundo. Hasta ahora, Microsoft ha tenido una modesta presencia en el mercado de motores de búsqueda con su Live Search -anteriormente MSN Search-. Según datos de ComScore de Abril de 2009 , el mercado de buscadores en Estados Unidos estaba liderado por: Google (64,2%), Yahoo! (20,4%), Microsoft (8,2%), Ask (3,8%) y AOL (3,4%). De momento, Bing sólo está disponible en Estados Unidos. Durante los próximos meses el motor de búsqueda será exportado al resto de principales países. A España no llegará hasta dentro de 1,5 años. El siguiente vídeo -en inglés- explica algunas de las principales características distintivas de Bing . En primer lugar, se notan mejoras en los resultados de búsquedas respecto a Live Search, tanto en rapidez como en precisión. Además, es capaz de ofrecer respuestas más concretas que meras páginas Web a ciertas bús

Principales diferencias entre H.323 y SIP

Existen bastantes diferencias entre estos dos protocolos de VoIP. H.323 es un estándar de la ITU-T mientras que SIP , es un estándar más nuevo del IETF. Ambos protocolos realizan las mismas tareas básicas de telefonía (establecimiento de llamada y señalización de su inicio, tonos de marcación y terminación), así como la señalización de características de su mantenimiento, identificación y transferencia de llamadas. Sin embargo, mientras que en las redes H.323 estas tareas dependen de un servidor central (con terminales "tontos" en los extremos), SIP asume un esquema más descentralizado, desplazando cierta inteligencia hacia los clientes (teléfonos, PC, dispositivos inalámbricos, etc.). Las principales diferencias podemos resumirlas en: H.323 se presentó como una evolución de SS7, diseñado para el control de la señalización en redes de conmutación de circuitos. Por el contrario, SIP está más cercano a HTTP, empleado en Internet, paradigma de red de paquetes. De cara al futur