Cuando vamos a plantear un proyecto
SEO(Optimización de Motores de Búsqueda) de posicionamiento web, hay que tener
en cuenta las áreas principales una de ellas es la indexabilidad, el contenido
y la popularidad.
Pero como manejamos esta indexabilidad,
para eso definiremos esta palabra se dice que es la capacidad que tiene un
sitio web de ser encontrado por los
buscadores, es decir rastreada en la totalidad de sus contenidos.
Es muy importante maximizar el
número de páginas indexadas, siendo lo ideal que este sea igual al número de
páginas existentes en nuestro sitio. Los buscadores permiten conocer el número
de páginas que tienen almacenadas de cada sitio web, lo que nos permite conocer
cuántas páginas están almacenadas en el buscador y compararlas con las que
tiene nuestro sitio.
Tips para mejorar la indexabilidad:
· Ver
nuestro sitio web tal y como lo ven los buscadores, como un simulador de arañas
o robots.
·
Una
URL única para cada contenido, evitar la programación en Flash, en Ajax o con
marcos (frames e iframes).
·
Páginas
indexadas y saturación, La relación entre el número de páginas indexadas y el
número real de páginas publicadas se denomina saturación y el
objetivo es que esta cifra se acerque al 100%,para esto deben estar todas
las páginas indexadas en los buscadores.
· Los
enlaces no rastreables (flash, javascript) actúan como barrera para la navegación
de las arañas e impiden que se rastree todo el contenido de la página.
· Emplear
bien los redireccionamientos, programar un redireccionamiento permanente 301
· El archivo robots.txt es
un tipo de archivo especial donde, de forma sencilla, podemos especificar qué
áreas, subdirectorios o archivos de la web no deberían ser indexados por los
buscadores.
No hay comentarios:
Publicar un comentario