Haciendo visible todo nuestro sitio

Imagen de Andrea Picaso
No siempre Google indexa la totalidad de las páginas de la web. Esto puede verse en la portada de las Herramientas para Webmasters de Google. Por qué Google "ignora" nuestras páginas y como solucionarlo.

Tener un Sitemap actualizado

Tener un Sitemap actualizado es el primer paso hacia una indexación total de toda nuestra web, y hacia un buen posicionamiento orgánico. Si no contamos con un Sitemap, existen muchas herramientas online que puede generar un Sitemap de forma gratuita (como por ejemplo ésta). Una vez que creamos en Sitemap los subimos a nuestro servidor al directorio de raíz.

A través de las Herramientas para Webmasters podemos avisar a Google que hemos creado el Sitemap, y enviarlo para su revisión.

Si aún así quedan páginas sin ser indexadas, hay otras cuestiones para considerar.

Problemas en la programación de la página, enlaces rotos

Deberemos asegurarnos que todos los enlaces internos de nuestra web funcionen adecuadamente, y que no queden páginas "colgadas", es decir sin un enlace desde la página principal o desde una página de categoría superior. Google podría considerar esta práctica como de "black hat", y ciertamente mermará la calidad de toda la web en general, además de dificultar la indexación de estos documentos.

Contenido de baja calidad

Google puede indexar el contenido una vez, pero si considera que es duplicado o de baja calidad, dejará de indexarlo, pues considera que no aporta información relevante al usuario. Si las páginas no son indexadas es necesario revisarlas para asegurarnos de que cumplan con las condiciones mínimas de calidad recomendadas por las herramientas para webmasters.

Noindex o Nofollow en la head

Estas dos etiquetas indican a los robots que indexan la página que no deben ser registradas. En consecuencia, las páginas que tengan estas etiquetas en su head, no serán consideradas, aunque figuren en el Sitemap.

Configuración del robots.txt

Aunque las páginas figuren en el Sitemap, si el robots.txt le indica a las spiders de los buscadores que esas páginas o el directorio que las contiene no deben ser indexados, pues no lo serán. Siempre conviene revisar que el robots.txt esté correctamente creado y configurado, pues es una poderosa herramienta que, mal empleada, podría llegar a dejarnos fuera de cualquier buscador.

Contenido fresco

Google ama el contenido fresco. Entre ofrecer contenido de hace varios años, y una página recién redactada, con la misma información, Google preferirá la información novedosa, pues considera que la calidad va de la mano con la actualización de los contenidos. Si Google no indexa algunas páginas de su web, y estas son demasiado antiguas, podría ser esa la causa por la cual no son consideradas.
Es recomendable evitar los reposteos, por ejemplo cambiando la fecha a los artículos. En todo caso, sería conveniente volver a tocar los mismos temas, pero incluyendo información actualizada.

Fuente de la imagen: Flickr