29
Aug

¿Cómo saber mi posición en Google?

Si bien parece una pregunta bastante fácil de responder como diciendo “realizando la búsqueda en Google” en realidad no es tan así. Desde hace tiempo que Google muestra resultados de búsqueda personalizados para cada usuario así que para una misma búsqueda tú y tu vecino pueden estar viendo resultados distintos. Estos resultados pueden depender de si estas logueado en tu cuenta de Google, de las cookies que tengas guardadas en el navegador, tu historial de búsquedas, interacción con las páginas, etc.

Entonces.. ¿cómo saber mi posición en Google?

Bueno existen algunas opciones para conocer tu posición en Google sin que te muestre resultados personalizados. Una opción es utilizar un “navegador incógnito” , casí todos los navegadores tienen la opción de abrir una ventana de incógnito que lo que hace es no guardar historial, ni cookies ni ningún rastro de los sitios por los que navegamos. De esta forma podríamos realizar una búsqueda en Google sin ser afectado por los resultados personalizados.

Otra opción es utilizar esta herramienta que le indicamos que término queremos buscar y para que página nos interesa la posición y nos devolverá que ocupa esa página en diferentes países para ese término de búsqueda. De esta forma podremos conocer en que posición de Google nos encontramos para varias países.

26
Apr

Google Penguin – Actualización en el algoritmo de Google

Como es sabido Google esta haciendo cambios en su algoritmo de forma constante en la búsqueda de mejorar la calidad de sus resultados de búsqueda, algunos son pequeños que no se notan y otros son más grandes. El pasado 24 de abril se realizo el Google Penguin Update, una nueva actualización del algoritmo que trata de limpiar sitios que realizan practicas fraudulentas para aparecer mejor posicionados en los buscadores.

Foto compartida por Matt Cutts en Instagram

Al parecer este nuevo cambio ha afectado al posicionamiento de muchísimos sitios y por lo que he podido ver hay resultados muy extraños. La intención de Google con este cambio es valorar más a las páginas creadas de una forma natural pensando en el usuario y castigar a las que están sobre optimizadas.

El año pasado se realizo otra actualización del algoritmo muy fuerte llamada Google Panda en la que se valoraban los sitios con contenido de calidad quitandole fuerza a las páginas que con contenido pobre conseguían muchos enlaces y se lograban posicionar bien. Con esta nueva actualización de algoritmo llamada Google Penguin se esta penalizando a sitios sobre optimizados, es decir que pierden valor las webs con dominios con palabras claves, abuso de las palabras claves en títulos y contenidos y aquellas páginas que consiguen todos sus enlaces con el mismo anchor text para posicionar fuerte por ese termino.

Es imposible conocer con exactitud cuales fueron los cambios y cual es la “nueva mejor forma de posicionar bien en Google” ya que si estos datos fueran públicos todos los webmasters tratarían de optimizar sus páginas según estas nuevas condiciones y no es lo que busca Google, lo que quieren es que se den resultados de forma natural, el único consejo que siempre dan es seguir la guía de calidad de Google.

Seguramente Google Penguin tendrá varias actualizaciones así como fue pasando con Google Panda para tratar de mejorar sus resultados, pero de momento si crees que tu web fue afectada injustamente por este cambio de algoritmo han creado un formulario de re consideración, si ves que hay spam en los resultados de Google puedes ayudar realizando un spam report para reportarlo, no siempre ayuda pero por lo menos podemos hacer el intento.

Puedes encontrar más información sobre esta actualización en el blog para wemasters de Google.

08
Mar

15 Puntos para indexar correctamente en los buscadores

Vamos a ver un resumen de 15 puntos que hay que tener en cuenta para que los buscadores indexen bien nuestras webs. Estos puntos no garantizan una buena posición en los buscadores, pero no por eso dejan de ser importantes ya que son el primer paso para que los robots nos puedan encontrar correctamente.

Seo - Indexar web en buscadores

 

1 – Ver como los buscadores

Lo primero que deberíamos comprobar es ver como ven nuestra web los buscadores, esto es útil para ver que encuentren toda la información que queremos mostrar y no esta oculta en imágenes o archivos flash que no pueden leer los buscadores.
Para poder comprobar esto existen simuladores de arañas o también podemos revisar la versión de caché que tienen guardados los buscadores de nuestro sitio, para esto basta con buscar en Google el sitio que queremos comprobar y hacer click “En caché” y luego ver la “versión de solo texto”.

2 – URL únicos por cada página

Cada página debe tener un URL único, este funciona como el identificador. Si en nuestra web vamos cambiando de páginas y siempre observamos la misma URL lo mismo le va a pasar a los buscadores y ahí tenemos un problema ya que no van a poder guardar cada página con una dirección única.

3 – Utilizar enlaces rastreables

Los robots van encontrando nuevas páginas gracias a los enlaces que hay hacia ellas, si los robots no pueden seguir estos enlaces jamas encontraran todas las páginas. La mejor forma es utilizar enlaces HTML ya que tienen problemas para seguir los enlaces en flash o javascript.

4 – Cuidado con el contenido en Pop-up

Los enlaces que abren los pop-ups son generalmente hechos con javascript y como vimos en el punto anterior estos son muy difíciles de rastrear por los buscadores. Si queremos que este contenido sea encontrado e indexado en los buscadores lo mejor es incluirlo dentro de la página.
Por otra parte recordar que hay muchos navegadores que bloquean los pop-ups, por lo que tal vez tampoco estaríamos haciendo llegar el contenido a los usuarios.

5 – Arquitectura de enlaces (Cuidado con las profundidades)

Los robots de los buscadores consideran la página principal del sitio como la más importante, de allí se va a pasar valor a las páginas internas. Cuanto más profunda sea la página menos valor va a tener, esta profundidad se mide según las cantidad de clicks que haya que hacer para llegar a esa página desde la principal.
Es importante poder llegar a todas las páginas a través de  pocos clicks desde la página principal, para destacar páginas internas es que se utilizan nubes de tags, enlaces relacionados, lo más buscado, productos destacados, etc.

6 – Flash y Silverlight, bonitos pero..

Estas tecnologías de Rich Media tienen un alto impacto en los usuarios pero todavía presentan muchos problemas para los buscadores. Creo que con tecnologías como jQuery y HTML5 se pueden lograr casi los mismos efectos y realizar una web mucho mas amigable para los buscadores.

7 – Los marcos eran del pasado

Hace años era bastante común realizar webs dentro de marcos ya que la velocidad de Internet era muy lenta y esto ayudaba a cargar solo partes de la página, con las velocidades actuales esto ya no tiene sentido. Lo mejor es transformar la estructura de marcos en páginas individuales cada una con su URL única como vimos en el punto 2.

8 – Los buscadores internos

En sitios webs muy grandes es común utilizar buscadores internos para llegar a parte del contenido, pero hay que tener en cuenta que los robots de los buscadores no pueden llenar el campo de búsquedas, por lo que si no hay una estructura de enlaces que lleve al contenido también este no será encontrado.

9 – Poner las páginas a dieta

Uno de los factores que tienen en cuenta los buscadores es cuanto tarda en cargar una página por lo que tu te tienes que preocupar de que estas no sean muy pesadas. Otro consejo es que tu código cumpla con todos los estándares que propone W3C.

10 – Dominios, subdominios y subdirectorios

En este punto varia según la intención de cada web.

Si tienes una versión de la página para cada país lo mejor va a ser que utilices un dominio regional (.es .com.uk) para cada uno. Esto va a ayudarte a ser mejor valorado en el buscador de cada país.
Si la web no se dirige a países distintos pero va a estar en diferentes idiomas es una buena opción utilizar subdominios para cada idioma.
Si solamente quieres estructurar correctamente tu sitio la mejor opción van a ser los directorios.

11 – Redirecciones

Hay veces que tenemos varios dominios para un mismo sitio, ya sea para diferentes países, proteger marca, etc. Si bien se pueden apuntar todos los dominios a la misma IP y mostrar el mismo contenido lo mejor es hacer redirecciones. Para el usuario va a ser lo mismo pero los buscadores lo valoraran mejor ya que evitas tener contenido duplicado bajo distintos dominios.

12 – Página de error 404

Con sitios que manejan mucho contenido es probable que algunas páginas dejen de existir y por más que llevemos un control de nuestros enlaces internos no podemos controlar que haya enlaces externos a páginas que ya no existen. Cuando un usuario llega a una de estas páginas se le muestra un mensaje de error, pero existen formas de hacerlas más amigables y mostrar una estructura igual a la del sitio y con contenido de utilidad como pueden ser enlaces a contenido relacionado al que buscaba.

13 – Para no perderte utiliza mapas

El mapa de un sitio puede ser como el indice de un libro, este servirá para que desde una única página se pueda ver que contenidos tiene el sitio y donde están ubicados.
El mapa tendrá enlaces a cada sección del sitio dándole una gran ayuda no solo a los usuarios sino que también a los buscadores.

14 – Protegete de los robots con el archivo robots.txt

Hay veces que no queremos que algunos buscadores accedan e indexen parte de nuestro contenido, lo mejor para estos casos es utilizar un archivo de texto llamado robots.txt que nos permite señalar que parte de nuestro sitio se puede indexar y que no para los distintos buscadores.

15 – El archivo sitemap

Este archivo es un fichero en formato XML invisible para los usuarios pero muy útil para los buscadores ya que lo utilizaran para descubrir las páginas de nuestra web. Existen herramientas online para generar el sitemap. Una vez creado se debe subir a la raíz del sitio e indicarle a los principales buscadores a través de sus herramientas para webmasters.

28
Feb

Herramienta SEO gratis de Microsoft

Free SEO Toolkit es una herramienta SEO gratuita que nos ofrece Microsoft para mejorar la indexación y posicionamiento en buscadores de nuestras webs. Si bien la optimización es valida para todos los buscadores al ser de Microsoft viene muy bien para ver que aspectos debemos mejorar para mejorar el posicionamiento en Bing.

Una vez instalada debemos crear los perfiles de los distintos sitios webs para que genere los reportes seo correspondientes. Lo primero que va a hacer es recorrer todo el sitio para marcarnos las sugerencias y errores que tenemos en el código, pueden ser H1 que faltan, descripciones cortas, busca enlaces rotos, etc.

La herramienta también analiza el contenido, niveles de directorios (las páginas dentro de directorios muy profundos son más difíciles de rastrear por los buscadores), performance, velocidad, links, redirecciones, robots.txt, y más..

 

15
Dec

Reporte SEO de tu web con Lipperhey

Hoy veo en el blog de Jonathan Volk una herramienta que me llamo la atención, Lipperhey. Lipperhey es otra de esas herramientas que te generan un reporte seo, aunque la mayoría de estas herramientas no me gustan mucho esta me llamo la atención, sus análisis me parecieron bastante buenos.

Lo primero que hace es pedirnos la url del sitio que queremos generar el reporte seo y enseguida nos pide nuestras palabras claves principales para evaluar resultados en los resultados de búsqueda. Otros datos que le podemos completar es si queremos que nos compare con sitios de la competencia y si queremos que la búsqueda sea local o no. Antes de generar el reporte nos va a pedir que nos registremos a través de un formulario muy sencillo que solo solicita mail y una contraseña.

Para ver un ejemplo practico voy a probar con mi último sitio de directorios web. Depende del tamaño del sitio que  evaluemos va a demorar más en generar el reporte seo.

Popularidad

Lo primero que vemos en el reporte es la popularidad por las palabras claves que elegimos, o sea la posición por la que salimos en los principales buscadores por estas palabras.

Popularidad Seo

Bueno estos resultados no me parecieron muy reales ya que me busque por esos términos y ni aparezco, bastante normal para un sitio que tiene en linea 3 días.

Análisis Seo

Luego podemos ver el análisis de la página, esto es muy interesante ya que podemos ver cuales son las cosas que tenemos que mejorar.

Reporte SeoAnalicemos el reporte:

Url: 100%
No es de extrañar ya que tengo las palabras claves principales en el dominio.

Headings (H1): 31%
Mmm.. hay varias páginas internas sin h1.

Content: 100%
El contenido del sitio esta bien, usa imágenes, texto, buen uso de las palabras claves..

Subheadings (Hx): 2%
Acá  me encontré con un punto fuerte a mejorar ya que no estoy utilizando subtitulos (h2, h3, etc.), perfectamente podría ponerlos.

Pagetitle: 85%
Usa las palabras claves principales, pero es un poco corto.

Anchor texts: 100%
Los enlaces son generados con texto que sirven para posicionar las páginas interiores.

Alt text: 100%
Las imágenes utilizan correctamente la etiqueta Alt, ayuda a los robots a saber que son las imágenes, aparte de agregar más palabras claves al código.

List: 0%
No utilizo listas en mi sitio, el menú que se parece a una lista esta generado con un control.

Aspectos técnicos

Luego nos evalúa algunos aspectos técnicos, no nos permite verlo completo ya que estamos utilizando la versión gratuita, para ver todos los datos existe una versión de pago.

Aspectos Técnicos SeoLo bueno de los aspectos técnicos es que podemos ver más detalles de a que se refiere cada uno, eso si, para ver las soluciones otra vez nos pide la suscripción de pago.

Los problemas principales que encontró son:

  • en la estructura de las páginas (demasiadas lineas de código)
  • no encontró el lenguaje del sitio (falta la meta etiqueta)
  • profundidad de las páginas (cantidad de clicks para llegar a las páginas más profundas)
  • las páginas utilizan extensión (.aspx en lugar de terminar con / )
  • no utilizo el archivo robots.txt para controlar el acceso de los robots
  • no utilizo el META keywords (Google ya no lo tiene en cuenta)

Se pueden seguir viendo muchísimos más detalles del reporte seo, pero estos son los principales. También permite crear un plan de mejoras seo aunque también va a mostrar solo para algunas páginas pidiendo una suscripción para ver todos los datos. Para ser un reporte seo gratuito la verdad que muestra bastantes datos y muy buenos.

Resultado

Resultado Seo

Resultado técnico: 6.8
Puntaje Seo: 81%
Popularidad: 1.0 (en un sitio nuevo como este es lo común)

Resultado total: 5.3/10
Conclusión: Estos días voy a optimizar esos puntos flojos del seo que algunos son muy sencillos 😀

Enlace: Lipperhey

12
Dec

Presentación de DirectoriosWeb.org

Hoy abro las puertas de DirectoriosWeb.org, mi directorio de directorios web. Es un sitio principalmente enfocado a webmasters y Seo. Con el sitio pretendo ayudar a los webmasters a llevar un control sobre los directorios web donde van agregando sus sitios para hacerlo de una forma más ordenada.

Directorios Web

Los directorios web nacieron antes que los buscadores como Google para tener los sitios web organizados. Con la aparición de los buscadores la función principal de los directorios web fue muriendo, aunque muchos webmasters y seos todavía los utilizamos como forma de obtener enlaces a nuestras webs ya que es la forma más sencilla de obtener enlaces gratis y mejorar el posicionamiento web en Google y demás buscadores.

Con DirectoriosWeb.org tendrás un listado de directorios web, pero no solo eso porque registrándote en el sitio podrás agregar tus sitios y llevar tu alta en directorios de una forma más organizada. Los directorios están agrupados por tipo de inscripción (ya sea gratuita, pagos o que requieren un enlace reciproco) así como organizados por distintas categorías.

Una vez que estas registrado puedes acceder a tu perfil para administrar tus sitios web, ya sea para editarlos o agregar nuevos.

Luego de haber agregado tus sitios en el detalle de cada directorio web veras un listado de tus webs donde podrás ir marcando si ya la diste de alta en el directorio o no.

Perfil directorio web

Ahora que ya conoces como funciona DirectoriosWeb.org te invito a registrarte y empezar a promocionar tus webs en los directorios.

Si eres webmaster y tienes un directorio web te invito a que lo promociones de forma gratuita en mi sitio a través del siguiente formulario.

Ya por último te sugiero que sigas a DirectoriosWeb.org en Twitter para enterarte de cuando se agregan nuevos directorios web.

31
Oct

Robots.txt

¿Para que sirve el archivo Robots.txt?

El robots.txt es un archivo de texto plano que se sube al directorio raiz del sitio web para indicarle a los robots de los buscadores que páginas o directorios no queremos que indexen. Esto es util para los sitios que tienen una parte de administracion que no queremos que sea vista por los demas en los resultados de los buscadores.

Ejemplos de Robots.txt:

• Para darle permiso a todos los robots acceder a todo el sitio:

User-agent: * 

Disallow:

• Para que ningun robot acceda al contenido del sitio:

User-agent: * 

Disallow: /

• Para que ningun robot acceda a un directorio especifico:

User-agent: * 

Disallow: /Backend/

• Para que el robot de Google no acceda a un directorio:

User-agent: Googlebot 

Disallow: /Backend/

Lista de todos los robots en: http://www.robotstxt.org/db.html

• No permitirle a ningun robot acceder a una página en especial:

User-agent: * 

Disallow: /archivo.html

Más información detallada sobre Robots.txt en: http://www.robotstxt.org/

31
Oct

¿Qué es el PageRank?

En reglas generales PageRank es un valor numérico que representa la importancia de una página en la web para Google, su manera de decidir la trascendencia de una página. Y esto resulta significativo, ya que se trata de uno de los factores que determina la posición de una página en los resultados.

Para este gran buscador, cuando una página enlaza a otra, es como si la página que tiene el enlace votara a la página enlazada. Mientras más votos tenga un sitio, más importancia poseerá. Es así que hay que tener en cuenta lo relevante que es el voto, ya que Google calcula la importancia de una página a partir de la cantidad de votos que obtiene.

Cuanta más importancia posea una página, mejor posicionada estará en su base de datos. Para Google cuantas más páginas enlacen a determinado sitio, más importancia tendrá el mismo. Se trata de un sistema de voto en el cual no es lo mismo que se enlace o vote una página con PR 6 que otra con PR 2. Por lo que se tendrá que conseguir que webs importantes enlacen nuestra página.

En definitiva, el PageRank es una herramienta que usa Google para posicionar una web dentro de su directorio. Google quiere que en las primeras posiciones se encuentren páginas de importancia y que a su vez sean recomendadas por otras de cierta relevancia.

Para determinar el PageRank, Google analiza el número de enlaces que provienen de otras páginas web. Funciona de la siguiente manera, si una página web enlaza con otra, la está recomendando, y si lo hace es porque debe ser importante en la temática que trata esta misma.

El valor de cada uno de esos enlaces depende del número de otros que salgan de esa página web y del PageRank que tenga el sitio web que está recomendando. Lo que cuenta es la densidad de los enlaces y la importancia de la página que recomienda. Si una página tiene PageRank 5 y 60 enlaces, y uno de estos enlaces va a determinada página, el valor de ese enlace es de 5/60. Si una página web tiene PageRank 3 y 10 enlaces, y uno va a otra página, el valor de ese enlace es de 3/10.

El PageRank es un valor numérico que va del 0 al 10 en una escala logarítmica. El mismo no se calcula cada vez que se realiza una búsqueda, si no que Google lo calcula cada cierto tiempo.

Esto significa que cuando se realicen cambios en la propia página web de forma que afecten al PageRank de otras páginas, o viceversa, los efectos no se verán reflejados sobre el propio PageRank hasta que Google no realice su próxima actualización.