08
Mar

15 Puntos para indexar correctamente en los buscadores

Vamos a ver un resumen de 15 puntos que hay que tener en cuenta para que los buscadores indexen bien nuestras webs. Estos puntos no garantizan una buena posición en los buscadores, pero no por eso dejan de ser importantes ya que son el primer paso para que los robots nos puedan encontrar correctamente.

Seo - Indexar web en buscadores

 

1 – Ver como los buscadores

Lo primero que deberíamos comprobar es ver como ven nuestra web los buscadores, esto es útil para ver que encuentren toda la información que queremos mostrar y no esta oculta en imágenes o archivos flash que no pueden leer los buscadores.
Para poder comprobar esto existen simuladores de arañas o también podemos revisar la versión de caché que tienen guardados los buscadores de nuestro sitio, para esto basta con buscar en Google el sitio que queremos comprobar y hacer click “En caché” y luego ver la “versión de solo texto”.

2 – URL únicos por cada página

Cada página debe tener un URL único, este funciona como el identificador. Si en nuestra web vamos cambiando de páginas y siempre observamos la misma URL lo mismo le va a pasar a los buscadores y ahí tenemos un problema ya que no van a poder guardar cada página con una dirección única.

3 – Utilizar enlaces rastreables

Los robots van encontrando nuevas páginas gracias a los enlaces que hay hacia ellas, si los robots no pueden seguir estos enlaces jamas encontraran todas las páginas. La mejor forma es utilizar enlaces HTML ya que tienen problemas para seguir los enlaces en flash o javascript.

4 – Cuidado con el contenido en Pop-up

Los enlaces que abren los pop-ups son generalmente hechos con javascript y como vimos en el punto anterior estos son muy difíciles de rastrear por los buscadores. Si queremos que este contenido sea encontrado e indexado en los buscadores lo mejor es incluirlo dentro de la página.
Por otra parte recordar que hay muchos navegadores que bloquean los pop-ups, por lo que tal vez tampoco estaríamos haciendo llegar el contenido a los usuarios.

5 – Arquitectura de enlaces (Cuidado con las profundidades)

Los robots de los buscadores consideran la página principal del sitio como la más importante, de allí se va a pasar valor a las páginas internas. Cuanto más profunda sea la página menos valor va a tener, esta profundidad se mide según las cantidad de clicks que haya que hacer para llegar a esa página desde la principal.
Es importante poder llegar a todas las páginas a través de  pocos clicks desde la página principal, para destacar páginas internas es que se utilizan nubes de tags, enlaces relacionados, lo más buscado, productos destacados, etc.

6 – Flash y Silverlight, bonitos pero..

Estas tecnologías de Rich Media tienen un alto impacto en los usuarios pero todavía presentan muchos problemas para los buscadores. Creo que con tecnologías como jQuery y HTML5 se pueden lograr casi los mismos efectos y realizar una web mucho mas amigable para los buscadores.

7 – Los marcos eran del pasado

Hace años era bastante común realizar webs dentro de marcos ya que la velocidad de Internet era muy lenta y esto ayudaba a cargar solo partes de la página, con las velocidades actuales esto ya no tiene sentido. Lo mejor es transformar la estructura de marcos en páginas individuales cada una con su URL única como vimos en el punto 2.

8 – Los buscadores internos

En sitios webs muy grandes es común utilizar buscadores internos para llegar a parte del contenido, pero hay que tener en cuenta que los robots de los buscadores no pueden llenar el campo de búsquedas, por lo que si no hay una estructura de enlaces que lleve al contenido también este no será encontrado.

9 – Poner las páginas a dieta

Uno de los factores que tienen en cuenta los buscadores es cuanto tarda en cargar una página por lo que tu te tienes que preocupar de que estas no sean muy pesadas. Otro consejo es que tu código cumpla con todos los estándares que propone W3C.

10 – Dominios, subdominios y subdirectorios

En este punto varia según la intención de cada web.

Si tienes una versión de la página para cada país lo mejor va a ser que utilices un dominio regional (.es .com.uk) para cada uno. Esto va a ayudarte a ser mejor valorado en el buscador de cada país.
Si la web no se dirige a países distintos pero va a estar en diferentes idiomas es una buena opción utilizar subdominios para cada idioma.
Si solamente quieres estructurar correctamente tu sitio la mejor opción van a ser los directorios.

11 – Redirecciones

Hay veces que tenemos varios dominios para un mismo sitio, ya sea para diferentes países, proteger marca, etc. Si bien se pueden apuntar todos los dominios a la misma IP y mostrar el mismo contenido lo mejor es hacer redirecciones. Para el usuario va a ser lo mismo pero los buscadores lo valoraran mejor ya que evitas tener contenido duplicado bajo distintos dominios.

12 – Página de error 404

Con sitios que manejan mucho contenido es probable que algunas páginas dejen de existir y por más que llevemos un control de nuestros enlaces internos no podemos controlar que haya enlaces externos a páginas que ya no existen. Cuando un usuario llega a una de estas páginas se le muestra un mensaje de error, pero existen formas de hacerlas más amigables y mostrar una estructura igual a la del sitio y con contenido de utilidad como pueden ser enlaces a contenido relacionado al que buscaba.

13 – Para no perderte utiliza mapas

El mapa de un sitio puede ser como el indice de un libro, este servirá para que desde una única página se pueda ver que contenidos tiene el sitio y donde están ubicados.
El mapa tendrá enlaces a cada sección del sitio dándole una gran ayuda no solo a los usuarios sino que también a los buscadores.

14 – Protegete de los robots con el archivo robots.txt

Hay veces que no queremos que algunos buscadores accedan e indexen parte de nuestro contenido, lo mejor para estos casos es utilizar un archivo de texto llamado robots.txt que nos permite señalar que parte de nuestro sitio se puede indexar y que no para los distintos buscadores.

15 – El archivo sitemap

Este archivo es un fichero en formato XML invisible para los usuarios pero muy útil para los buscadores ya que lo utilizaran para descubrir las páginas de nuestra web. Existen herramientas online para generar el sitemap. Una vez creado se debe subir a la raíz del sitio e indicarle a los principales buscadores a través de sus herramientas para webmasters.

7 Comentarios

Dejar un comentario

Comentario

Comments RSS Feed   TrackBack URL