Google Penguin 2016 llega para quedarse

Google Penguin 2016 ya está aquí. Penguin, viejo conocido por los SEO, es el nombre de código de uno de los principales algoritmos, que son definidos por Google como “programas informáticos concebidos para navegar entre miles de millones de páginas y detectar buenos indicios y devolver exactamente la repuesta a su pregunta”. Como sabemos estas buenas intenciones no siempre se cumplen.

El efecto de la actualización del algoritmo Google Penguin 2016 se define como un tipo de “Google dance” debido a los cambios de posición de los resultados de las búsquedas, trás la aplicación del filtrado con los nuevos métodos y criterios.

Google Penguin 2016.

Foto de pixabay.com https://goo.gl/HiRX3K

Junto a Penguin, Gooogle pone también a disposición dos algoritmos principales de búsqueda

Google Pigeon

Google Pigeon es el nombre en código del algoritmo publicado en Estados Unidos el 24 de julio de 2014 destinado a obtener resultados más pertinentes y precisos para las búsquedas locales.

El objetivo principal de Google Pigeon es la mejora de la experiencia del usuario en las búsquedas acotadas geográficamente (por ejemplo restaurante Valencia, dentistas Madrid). Llegó a España en octubre del 2014.

Google Panda

Google Panda es el nombre en código de un algoritmo lanzado en febrero del año 2011 relativo al SEO interno on-site. Dicho algoritmo ha sido actualizado prácticamente cada mes.

Panda penaliza la clasificación del contenido de escasa calidad (backlinks, duplicación, content spinning) en las búsquedas, favoreciendo en los resultados a los sitios de calidad.
Por eso, además de cuidar que el contenidos sea de calidad, hay que revisar la indexación para que Google no encuentre contenido basura o que sea considerado contendio duplicado. Los CMS mas habituales (WordPress, Prestashop..) tienen sus virtudes pero son propensos a crear páginas que se escapan de nuestro control (etiquetas, ) y Google rastrea como el resto de contenido.

La solución y optimización se explica en Optimizar rastreo de Googlebot.

Google Penguin

Google Penguin (Pingüino) es el nombre en código de un algoritmo publicado el 24 de abril del año 2012 que se encarga del análisis de las técnicas de optimización SEO externa a los sitios contrarios a las guidelines de Google.

El algoritmo Penguin es un filtro anti spam que lucha esencialmente contra el spamdexing, es decir, penaliza los sitios que utilizan técnicas de netlinking abusivas, por ejemplo, usando enlaces cíclicos o redundantes a sitios pantalla o a sitios fantasma.

En caso de que un sitio sea penalizado por Penguin se pueden tomar las siguientes acciones correctoras:

  • Análisis de los enlaces entrantes con un programa de optimización, como puede ser Search Console.
  • Limpiar los backlincks (enlaces de mala calidad).
  • Crear nuevos enlaces depurados.
  • Contactar los webmaster enlazados a los que enlaza nuestro sitio para que supriman sus enlaces de mala calidad.

Desde el año 2012, Google Penguin ha sido desplegado en tres ocasiones de manera puntual, siendo la última actualización del algoritmo penguin del año 2016 publicada el día 23 de septiembre.

Y qué cambia en Google Penguin 2016

Tras el retorno de experiencia de la comunidad de webmasters, Google ha implementado las mejoras siguientes:

– Gogle Penguin 2016 se ejecuta ahora en tiempo real

Anteriormente, Penguin refrescaba la lista de sites analizada al mismo tiempo. Ahora, cuando un webmaster efectúe cambios y mejoras en internet, los datos de Penguin serán refrescados en tiempo real, sin necesidad de proceder a referescar periódicamente la información.

Así, los datos serán visibles más rápidamente, por lo general poco después de que se vuelva a rastrear e indexar una página.

– Penguin es ahora más granular

A partir de ahora Penguin devalúa el spam mediante un ajuste del ranking basado en señales de spam en lugar de afectar la clasificación de todo el sitio.

Lo que significa que Google sólo penalizará, presumiblemente, una parte del sitio, la que no cumpla las guidelines de Google.

– Google no dará a conocer nuevas actualizaciones de Penguin

Lo cual es coherente con el hecho de que el proceso, anunciado para desarrollarse continuamente, tendrá lugar de manera constante.

Si bien la web ha cambiado significativamente por el transcurso de los años, Google manifiesta no querer coartar la libertad creativa de los webmasters,haciendo énfasis en que Penguin forma parte del corazón de su algoritmo, junto con los otros dos algoritmos más arriba explicados y otras 200 “señales” (datos y valoraciones obtenidos por otros tantos algoritmos) que influyen en el cálculo y la valoración del ranking de los sites.

¿Qué cambia para los webmasters y bloggers?

Debido a que Penguin se ejecutaba periódicamente de manera puntual, sitios maliciosos que podían escapar al filtrado y a la subsiguiente penalización quedaban impunes hasta la siguiente indexación de las páginas por parte de la herramienta de búsqueda.

Lo mismo ocurría, pero a la inversa, con los sitios legítimos que daban “falso positivo” durante un proceso de indexación. Las medidas correctoras (véase más arriba) que permitían revertir una mala clasificación en el rank tardaban en surtir efecto (a veces más de un año).

Con la versión Google Penguin 2016 se pretende que tanto las penalizaciones como las reversiones sean tenidas en cuenta con rapidez desde el momento que se publican las páginas o los blogs en internet. Ello será posible gracias a que el proceso de actualización se efectuará de manera continua, sin fecha de finalización determinada.

Así, los SEO managers no deberán esperar a una fecha fija para observar impactos de sus estrategias de netlinking, pudiendo padecer una pérdida de posición en el rank si se detectan acciones nefastas.

Los webmasters impactados por Google Penguin 2016 podrán constatar casi en tiempo real los impactos de sus acciones de limpieza de backlinks (supresión de enlaces, cambios de anclajes, paso de dofollow a nofollow, denuncia de enlaces o dominios).

Por otra parte, Google ha anunciado que Penguin 4.0 será a partir de ahora más preciso en sus análisis. Así los impactos serán más dirigidos. El rank de los sitios completos se verá menos alterado al permitir Penguin un filtrado más granular de partes determinadas de los mismos.

Con todo ello, es de esperar que se dificulte la estrategia de los spamsites que intentan usurpar los primeros lugares en los resultados de búsqueda mediante la utilización de malas técnicas como, por ejemplo, la reiteración de palabras clave, la compra de enlaces para dopar el PageRank o el uso de texto invisible

Como puede verse, Google pretende seguir poniendo coto a los sitios que desarrollan el conocido como Black Hat SEO en pro de las páginas web que se esfuerzan por alcanzar las primeras posiciones de una forma ética.

Efectivamente, las malas prácticas de determinadas webs suele redundar en un claro perjuicio para los sitios legítimos, que se ven privados, precisamente por su buena praxis, de acceder a lugares relevantes en los procesos de búsqueda al volverse su búsqueda más difícil al estar enterrada su posición entre montones de resultados completamente inútiles y sin relación con lo que se pretende encontrar.

Los SEO que hacemos las cosas bien, vamos a echar de menos lo nerviosos que se ponían algunos cada vez que Google anunciaba pingüinazo. El SEO blanco triunfa una vez más.

Gorka Goikoetxea

Gorka Goikoetxea

Fui Chef y ahora cocino Webs, las aliño con SEO y SEM y un toque de Analytics. De postre, Tag Manager. Me encanta comer, devoro blogs con salsa Twitter.
Gorka Goikoetxea
Gorka Goikoetxea
Gorka Goikoetxea
Etiquetado con:
Publicado en: SEO mola

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

Suscríbete al blog

Sígueme en Twitter
Redes sociales