3 de mayo de 2012

Google Penguin: nuevo dolor de cabeza para el SEO de las páginas web

Desde finales del mes pasado en fase de prueba y desde el principio de este mes ya en firme Google ha vuelto a modificar el algoritmo por el que rige su motor de búsqueda. Si Google Panda trajo consigo bastante desasosiego a los profesionales del posicionamiento la llegada del pingüino (traducción al castellano del término original) está suponiendo una revisión en profundidad de muchos de los principios del posicionamiento orgánico. No voy a extenderme demasiado en las novedades (a fin y al cabo, el algoritmo es secreto y solo podemos tratar de interpretar los resultados que estamos recibiendo) sino que voy a mencionar algunas de las nuevas características que han ido apareciendo en los blogs de Google, además de alguna experiencia que hemos padecido estos días.

Una de las consecuencias que más se han notado es la pérdida de posicionamiento de algunas páginas en virtud de los nuevos parámetros de las guías de calidad de Google. Así páginas que hasta hace una semana estaban posicionadas entre las primeras de una búsqueda se han visto afectadas por los cambios.

Desde Mountain View nos hacen especial énfasis en evitar el texto oculto o los enlaces ocultos. dicho de otra manera, si mostramos al buscador un texto o enlace de manera distinta  que a los usuarios nuestra página o blog se verán penalizados. Esto tampoco es nuevo, pero sí que parece que ahora va a ser revisado de una manera más concienzuda. Debemos evitar prácticas negativas como:

  • Incluir el texto debajo de una imagen.
  • Utilizar CSS para camuflar el texto.
  • Usar texto blanco sobre fondo blanco.
  • Ajustar el cuerpo del texto a cero.
Google nos recomienda también extremar el cuidado con las palabras claves de la página, evitando prácticas de:

  • Keyword stuffing (Técnica que consiste en utilizar determinadas palabras claves dentro de una página web para incrementar la variedad y densidad de palabras).
  • Cloaking (Técnica que consiste en mostrarle a los buscadores versiones de las páginas distintas de las reales, versión que suele ser una página optimizada para aparecer en los primeros lugares de las búsquedas de determinadas palabras, lo que no lograría hacerse con la página real, que es la que ven realmente los visitantes).
  • Spamming (Abuso de cualquier tipo de sistema de mensajes electrónicos, mensajería instantánea, foros, blogs, en buscadores, mensajes en teléfonos móviles, etc.)
Esto tampoco es tan novedoso, aunque es necesario adaptarnos a los nuevos parámetros de densidad y variedad, o, al menos, tratar de ser más limitados en la selección de palabras clave. La densidad de palabras clave deberá ajustarse a aquéllas que son realmente relevantes al contenido de la página (entre el 2,5% y el 4%) y evitar la iteración innecesaria.
Igualmente se recomienda evitar hacer queries (consultas automatizadas) al buscador a través de software. Dicho de otra manera, ya no vale el pan para hoy y hambre para mañana.
Tampoco creo descubrir nada si digo que se recomienda que los contenidos sean únicos y no estén duplicados en formatos para distintos soportes (PC y móvil, por ejemplo), o almacenados en enlaces apuntando a través varias URLs múltiples redirigidas, o versiones para imprimir de una página.
Algunas de las prácticas que se desaconsejan llevar a cabo y que penalizan son las siguientes:
  • Enlaces de texto de pago empleando concordancia exacta en el anchor text. Son fácilmente detectables por Google.
  • Posteo como invitados en blogs o páginas de dudosa reputación.
  • Enlazces de artículos desde herramientas de difusión de los mismos (como, por ejemplo, SubmitYourArticle ó EzineArticles).
  • Enlaces de sitios potencialmente peligrosos por difundir malware, granjas de enlaces, numerosos pop-ups, etc.
Con estas modificaciones en su algortimo Google pretende que nos convirtamos en policías SEO y denunciemos la generación de tráfico no natural hacia otras páginas (quizá de la competencia...). No sé si es una buena propuesta o nos veremos sumergidos en un entorno de crispación e inseguridad. Pero también es verdad que si identificamos vulnerabilidades de nuestra página, monitorizamos aquellas páginas que nos enlazan, realizamos técnicas de indexación semántica latente y, sobre todo, disponemos de una arquitectura web clara y una navegación sencilla para el usuario será más efectivel SEO hacia nuestra página.
Los pingüinos pueden servir para dejar claro que un servicio SEO barato no es eficaz o no suele hacerse con limpieza, según las directivas de los motores de búsqueda.  Recomiendo echar un vistazo a esta entrada del blog de Ricardo Tayar sobre el tiempo que tarda en posicionarse adecuadamente una página web.
Si consideras que tu página ha bajado dramáticamente en el número de visitas o en el ranking sin haber realizado ninguna actividad que contravenga las directivas de calidad de Google puedes reclamar a través de este formulario
Vamos a finalizar con un vídeo (en inglés) que nos refiere algunas de los aspectos que hemos comentado:
Creative Commons License
Esta obra está bajo una licencia de Creative Commons.
Related Posts Plugin for WordPress, Blogger...

Suscríbete por rss

Suscríbete por correo electrónico