La Web se ha desarrollado extraordinariamente durante los últimos años, sobre todo a raiz de la popularización de la Web 2.0. Si en 1998 Google tenía indexadas 26 millones de URL y en el año 2000 unos 1.000 millones, hace unos días alcanzó 1.000.000.000.000 de URL. Se trata además de URL únicas, es decir, no duplicadas. Recordemos que cada URL no sólo puede ser una página HTML, sino también documentos PDF, DOC, etc. La noticia aparece en el blog Official de Google: http://googleblog.blogspot.com/2008/07/we-knew-web-was-big.html.
Si Google procesa todo ese número de URL es, además, porque en la Web existen muchas más. Para encontrar la mayoría de las páginas comienzan por procesar un conjunto bien definido formado por las páginas más populares, es decir, las de los sitios Web que generan más visitas y que tienen más enlaces. A partir de los enlaces salientes de estas páginas, van añadiendo información al índice, eliminado la información duplicada (por ello, si se han indexado 1.000.000.000.000 de URL es porque se han procesado muchas más). Sin embargo, la cadena no se sigue de forma "infinita", porque el buscador debe repetir el proceso anterior para encontrar nuevas URL importantes, así como actualizar todo su índice para evitar enlaces "rotos". Por ello es importante que los administradores de sitios Web de escasa popularidad o de reciente creación, indexen su página Web manualmente en el buscador y, además, que tengan un fichero "sitemap" para facilitarle este proceso.
Esta claro, que con esta cantidad creciente de información, la única tecnología que permitirá hacer búsquedas eficientes en poco tiempo, será la Web semántica. ¿Todavía crees que es fácil posicionar tus páginas Web en los primeros resultados de búsqueda de Google?...
Si Google procesa todo ese número de URL es, además, porque en la Web existen muchas más. Para encontrar la mayoría de las páginas comienzan por procesar un conjunto bien definido formado por las páginas más populares, es decir, las de los sitios Web que generan más visitas y que tienen más enlaces. A partir de los enlaces salientes de estas páginas, van añadiendo información al índice, eliminado la información duplicada (por ello, si se han indexado 1.000.000.000.000 de URL es porque se han procesado muchas más). Sin embargo, la cadena no se sigue de forma "infinita", porque el buscador debe repetir el proceso anterior para encontrar nuevas URL importantes, así como actualizar todo su índice para evitar enlaces "rotos". Por ello es importante que los administradores de sitios Web de escasa popularidad o de reciente creación, indexen su página Web manualmente en el buscador y, además, que tengan un fichero "sitemap" para facilitarle este proceso.
Esta claro, que con esta cantidad creciente de información, la única tecnología que permitirá hacer búsquedas eficientes en poco tiempo, será la Web semántica. ¿Todavía crees que es fácil posicionar tus páginas Web en los primeros resultados de búsqueda de Google?...
Comentarios
Publicar un comentario