Inicio » Link Building » Algoritmo Google Penguin 4.0: Un dato más

Algoritmo Google Penguin 4.0: Un dato más

17 Noviembre 2016

La verdad es que no tenía intención de hacer un post sobre Penguin 4.0. A estas alturas seguramente la mayoría de los lectores de este blog ya conoceréis que Penguin pasa a ser en tiempo real y granular, bien porque habéis leído el blog oficial de Google, o bien porque lo habéis leído en español en algún otro blog.

No veía interesante por tanto escribir sobre el tema si no tenía nada más que decir. Pero ha resultado que sí que tengo algo más que decir, dado que he podido observar un mismo comportamiento dentro de un tipo de negocios en un número de portales suficiente como para poderlo considerar un patrón.

Por supuesto los datos son sesgados, pues no he analizado la totalidad de los portales de Internet, pero sí merece la pena comentarlos. Aprovecharé, ahora sí, para hacer un post completo sobre Penguin 4.0 explicando en qué consiste y terminaré con una conclusión general sobre la evolución de Penguin. Si quieres ir directo al dato extra, pincha aquí.

¿Qué es Google Penguin (Pingüino)?

Penguin es el nombre de una actualización del algoritmo de Google que nació en 2012 y que está enfocado en detectar y penalizar el spam y especialmente los patrones de enlaces no naturales.

Desde ese momento ha habido varias actualizaciones:

  • Penguin 1/Penguin 1.0: 24 de abril de 2012.
  • Penguin 2/Penguin 1.1: 26 de mayo de 2012.
  • Penguin 3/Penguin 1.2: 5 de octubre de 2012.
  • Penguin 4/Penguin 2.0: 22 de mayo de 2013.
  • Penguin 5/Penguin 2.1: 4 de octubre de 2013.
  • Penguin 6/Penguin 3.0: 17 de octubre de 2014.
  • Penguin 7/Penguin 4.0: 23 de septiembre de 2016.

No creo que merezca la pena repasar qué aporta cada actualización. Simplemente retengamos que en cada una de ellas se añaden nuevos datos o señales para detectar spam, especialmente (aunque no solo) el relacionado con enlaces spam.

¿Qué es Google Penguin 4.0?

Es la última actualización de Google Penguin, que incorpora 2 importantes cambios:

Penguin funcionará en tiempo real

Hasta ahora el efecto de Penguin se actualizaba periódicamente, por lo que el efecto de algunas acciones SEO tardaba un tiempo en verse reflejado.

Ahora Penguin forma parte del núcleo de Google y se actualizará en tiempo real al igual que muchas otras señales de su algoritmo. Detectará por tanto el spam mucho más rápido.

Penguin será más granular

Hasta ahora Penguin podía penalizar un portal entero si detectaba signos de spam. Ahora en vez de eso devaluará las señales spam y afectará a un nivel más concreto (páginas concretas, secciones, etc). Esto se traduce en el caso de los enlaces en restar o anular su valor, en vez de penalizarte el sitio entero.

Obviamente si devalúa la fuerza que recibes en varias secciones, esto podría afectar a todo tu portal, pero más como una consecuencia indirecta que como una penalización del algoritmo.

Efecto en diferentes sectores

Bueno, una vez repasado los conceptos básicos de Penguin, paso ahora sí a lo que yo he podido medir en base a cientos de portales. Insisto que esto no son conclusiones absolutas, sino parciales en base a los portales que gestionamos desde Softalian, pero dado que observamos un patrón y que es totalmente coherente con lo que anuncia Google, merece la pena considerarlo como dato fiable.

Agruparé los portales en 3 grupos que aglutinan la mayoría de los portales que trabajamos:

Grandes marcas en mercados de alta respuesta de usuario

Aquí no hemos notado nada, en ninguna de las temáticas que trabajamos, más allá del típico baile que existe cada semana y que puede deberse a cualquier acción nuestra o de la competencia.

La justificación que le doy es sencilla: nosotros no realizamos ningún tipo de spam ni publicamos enlaces de riesgo, pero tampoco lo hace la competencia. Tal vez lo hagan competidores más pequeños pero como las keywords importantes suelen ocuparse por grandes marcas, el efecto de una posible devaluación de esos competidores ha sido nulo.

Tal vez haya habido algún efecto pequeño, pero estos portales tienen mucho tráfico y la propia oscilación diaria, aunque porcentualmente sea casi nula, el valor absoluto puede ser mayor que dicho efecto. En definitiva, no observo nada en las grandes marcas que se pueda atribuir a esta actualización.

Portales temáticos

Tampoco hemos observado nada en nuestros propios portales temáticos, ni en los de micro nicho (micros) ni en los portales más grandes. El motivo parece ser el mismo. Los portales que suelen copar las primeras posiciones suelen ser portales de cierta calidad y con cierta respuesta de usuario, por lo que no hay demasiado spam que penalizar.

Portales pequeños y medianos en mercados de alta respuesta de usuario

Aquí sí hemos notado importantes cambios y el motivo también concuerda con lo que anuncia Penguin 4.0. En este tipo de negocios sí que había portales de baja calidad que se habían posicionado utilizando técnicas muy agresivas. A diferencia del primer grupo, aquí ya no compiten solo con grandes marcas y por tanto tenían hueco donde colarse, al menos durante un tiempo.

Con la llegada de Penguin casi todos estos portales han caído varias páginas permitiendo a nuestros portales subir varias posiciones. Realmente no es que hayamos subido nosotros, sino que nuestra competencia spam se ha hundido y ahora competimos los portales que, por decirlo de alguna manera, “hacíamos las cosas bien”. En cierto modo siempre ha sido así, el spam se suele colar una temporada entre los resultados de calidad y luego se hunde, pero si ahora Penguin pasa a ser en tiempo real, nos desharemos de este tipo de portales mucho antes, o incluso puede que estos desistan.

Ahora se observa un orden más natural en las SERP, que queda más o menos así:

Para keywords importantes:

  1. Grandes marcas
  2. Portales medianos
  3. Spam

Para keywords secundarias

  1. Grandes marcas y portales pequeños mezclados según los objetivos de cada portal
  2. Spam

Llegado este punto os recomiendo repasar seoazul.com/grandes-marcas-vs-portales-pequenos/

Como os podéis imaginar, no puedo citar dominios exactos por el mismo motivo de siempre, pero os copio 2 capturas de SemRush recortadas que muestra el tipo de patrón que hemos observado.

Algoritmo Google Penguin 4.0

La verdad es que Penguin 4 ha sido una buena noticia para todos los que hacemos SEO natural, pues Google nos vuelve a insistir en que cada vez es más rentable intentar hacer portales de calidad antes que spam.

Google Disavow

Una pregunta natural que surge es: Si Google actúa más devaluando enlaces y menos penalizando sitios enteros, ¿significa esto que ya no es necesario usar Disavow?

La primera respuesta debe ser que no hay una conclusión absoluta actualmente. Ni Google ha afirmado que debemos dejar de usar Disavow ni hay datos concluyentes para afirmar que ya no sirve para nada. Sin embargo, hay 2 datos que sí me atrevo a afirmar con bastante seguridad: (para entender la diferencia entre “conclusión absoluta” y “bastante seguridad” te recomiendo seoazul.com/como-entender-el-seo/):

En primer lugar sí que creo que ahora Disavow es menos necesario que hace años. Sí que he observado que Google detecta cada vez mejor qué enlaces son spam y directamente los ignora. Esto no es nuevo de ahora. Llevo tiempo observando que algunos portales reciben algunos enlaces claramente tóxicos sin que esto suponga ningún perjuicio en el posicionamiento.

Si ahora, adicionalmente, Google hace una afirmación en esta dirección, sirve para reafirmar mis conclusiones.

En segundo lugar, “menos” no es “nada”. Disavow todavía puede ser útil, en concreto ante penalizaciones manuales. Yo desde luego no he quitado los ficheros disavow de aquellos portales que lo han necesitado.

La conclusión es que todo apunta a que Google cada vez será más inteligente y anulará los enlaces spam, pero que a día de hoy Disavow todavía puede ser útil en determinados casos, aunque menos que hace años.

Tendencia histórica y conclusión

Desde que salió Panda y Penguin en 2011/2012 Google siempre sigue la misma tendencia:

Google quiere que nos sea más rentable hacer calidad que hacer basura.

Hasta 2010 esto no fue así, pues era muy rentable hacer decenas de portales basura, enlazarlos con ciertas técnicas y monetizar. Pero cada año, con cada Panda o Penguin, Google insiste y mejora su algoritmo para que la calidad prevalezca.

¿Significa esto que no podemos hacer spam, SEO agresivo o técnicas que Google no quiere? No, podemos seguir haciéndolas. De hecho algunas funcionan todavía, y para cuando Google bloquee estas, seguramente encontraremos otras. Pero ésta no es la pregunta correcta. La que debemos hacernos es: ¿Qué es más rentable?

Cada uno elegirá la opción que prefiera o conozca más, pero debemos tener presente que:

La tendencia es que cada vez más prime la calidad sobre el spam.

Y ahora te pregunto yo a ti: ¿Has notado algo con este Penguin?

4.5/5 (10 votos)
Suscríbete a Seo Azul
Recibe en tu correo todos los contenidos que publicamos en el blog, y los que no publicamos. Sin spam, por supuesto.
  • Oliver

    Interesante tema el que tocas al final (rentabilidad), es algo que a mi personalmente no me queda muy claro hasta ahora.

    Conozco ya varios casos de SEOs donde ellos solos han logrado generar 5 cifras mensuales en menos de 1 año. Su modelo de negocio se basa en SEO de poca calidad pero muy potente y aplicable a gran escala, dicho de otro modo, redes micronichos posicionados con PBNs de bajo coste llena de patrones antinaturales. Dichas redes siguen al pie del cañón, aun después de Penguin 4.0.

    Por otra parte, generar esa cantidades de dinero mensualmente en tan poco tiempo (con recursos limitados por estar tu solo) lo veo complicado con páginas webs donde se aplica un SEO seguro y de calidad, se necesita más tiempo.

    Por esta razón, sigo creyendo que a corto y medio plazo, actualmente es más rentable a nivel económico el primer modelo de negocio.

    Pero vamos, que al final lo más importante es encontrar un modelo de negocio acorde a tu personalidad y estilo. Yo mismo he intentado, con la única motivación de ganar dinero, replicar más de una vez ese modelo de negocio y no ha salido adelante por falta de ganas.

    Un saludo!

    • Hola Oliver.

      Tu comentario en realidad es el eterno debate entre diferentes estrategias SEO y que además depende del tipo de negocio que quieras desarrollar y del tipo de monetización. Hay casos de éxito en casi todos los modelos de negocio, y también fracasos, así que como bien dices, la decisión depende de cada persona.

      Pero eso no quita que hay datos que son interesantes observar y que la tendencia es la que comento en el post. En los ejemplos que comento en el post, hace 4 meses había portales de baja calidad por encima de nosotros. Hoy ya no están posicionados. ¿Qué es más óptimo: haber estado encima unos meses con poco trabajo o mantenerte arriba con más trabajo? Ambas opciones son aceptables, aunque si quieres hacer marca obviamente tienes que optar por la segunda opción.

      ¿Tú qué opción prefieres?

      Un saludo.

      • Oliver

        Así como lo planteas la 2nd opción, pero ten en cuenta que es muy posible que con todo los recursos necesitados para crear el portal de gran calidad, el otro SEO ha podido rankear 50 sitios con SEO agresivo y de bajo coste.

        Vale que ha terminado bajando posiciones, pero tras esos 4 meses ahora tiene la posibilidad, con todo el dinero recaudado, de crear una web más grande que la tuya.

        Yo soy un fan del los proyectos a largo plazo, en eso se basa mi modelo de negocio. Pero si empezará desde 0 y mi objetivo fuera ganar el máximo dinero posible en 1 año, esta claro que black hat o seo agresivo sería la respuesta.

        Ojo, todo desde el punto de vista de un emprendedor con recursos limitados y pocos datos :-)

        • En realidad me refería a qué opción prefieres en general, no solo en ese caso, pero lo que dices es cierto, esa opción también es viable para ciertos modelos de negocio.

          De todas formas, creo que hablas de proyectos que se moneticen con Adsense o afiliación o sistemas similares. Si vamos a tiendas online o empresas de servicios, la estrategia no puede ser “subir unos meses y hundirte después”. Creo que nadie discutiría que tener un solo Zalando es más rentable que mil mini tiendas. Por eso siempre digo que toda opción puede ser válida, simplemente hay que saber cuándo aplicarla.

          Y no creo que tengas tan pocos datos, jeje, tú opinión es interesante. De hecho, sigue así que enriqueces el post :)

        • José R.

          Hola Oliver.
          ¿Qué es SEO agresivo? ¿A qué técnicas te refieres?
          Saludos.

          • Oliver

            black hat seo :-)

  • José R.

    Hola Nacho.
    Es cierto que más gente ha hablado de Penguin estos días pero no está de más ver más datos sobre cuando afecta. Yo sinceramente no he notado nada, ni para bien ni para mal, aunque tampoco tengo tantas webs como para opinar. Mis webs son también de tipo nicho para Adsense, así que me ha pasado como a ti.
    Un saludo.

    • Hola José.
      Pues por eso lo he escrito :)
      Gracias por compartir tu caso.
      Un saludo.

  • Esta vez coincido contigo en el blog público que mantengo activo ahora. Penguin 4.0 me pilló al poco de migrar por un ataque ( no fue un ataque SEO ) y pensé que no vería nada con el baile lógico de una migración. Pero según pasan las semanas observo que voy escalando en algunas keywords que daba por imposibles, y al ver a quiénes paso, es precisamente a portales o sitios con contenido pobre y tropecientos enlaces ( algunos dudosos ).

    Yo sigo utilizando el disavow, como hacía antes, dando un repaso cada pocos meses. Daño no va a hacer e imagina que te hacen un ataque de SEO negativo. Mejor es, si lo ves, reportarlo antes de esperar a que google se de cuenta de que esos sitios que te enlazan no deben ser tenidos en consideración.

    Creo que más que nunca va a primar lo de “lo mejor, pocos enlaces pero buenos”.

    • Hola Inma.
      Por lo que dices parece que tu experiencia coincide con la mía, aunque si Penguin ha ocurrido a la vez que otras acciones, como la migración, será complicado saber qué motivo ha influido más.
      El disavow solo hace año si desautorizas enlaces positivos, pero asumo que eso no lo haces, así que lo puedes usar si quieres.
      Un saludo.

  • Muy bueno el Post! Directo y al grano como siempre! Coincido contigo en el tema disavow totalmente.
    No dejes de escribir que siempre tienes ese punto de vista personal que tanto me gusta.
    Un abrazo crack!!!

    • Muchas gracias Luis.
      Me alegra verte por aquí.
      Eso es lo que intento transmitir en los posts, sí :)
      Un abrazo.

  • Pablo ManMar

    Pues mira que me lo avisaste Nacho, aunque mi nicho es grey :) Ahora estoy quitando enlaces de antiguas paginas de tematica que tenia un poquitin espameadas. Llevo tiempo metiendo solo enlaces potentes (fuerza/visibilidad), aunque tal vez con anchor demasiado exacto, pero como de momento la tendencia era al alza… en fin me voy a hacer white con puntitos grey ;) y voy a tirar de linking paraguas de LMV . gran post . Un abrazo. Si sigo asi ire a verte para que lo soluciones!!!!

    • Suena bien lo que me cuentas. Opino como tú, es mucho mejor un enlace de calidad que varios de poco valor.
      Cuando dices “nicho grey”, ¿te refieres a nicho de baja respuesta de usuario?
      Un saludo.

      • Pablo ManMar

        Exacto Nacho, baja respuesta.
        Además la estrategia linkbuilding que se sigue en término medio en este nicho suele ser pobre.
        Pbn baja-media calidad, directorios calidad baja spameados y/o penalizados…
        aunque por supuesto con excepción de marcas, que suelen copar primeras posiciones.
        Realmente he notado los cambios a raiz de dos factores.
        La entrada de PENGUIN 4.0 y cambie el plugin de sitemaps de yoast a xml sitemaps.
        He realizado cambios en el plugin para optimizarlo al máximo y revisado Search Console.
        Si observo misma tendencia cambiare de nuevo a yoast. He eliminado el DNS de la web spameada para que no apunte al servidor y ver como reacciona el MS, Próximo cambio a nofollow todo enlace torticero que tengo en otra web spameada de temática aunque mas potente que la anterior.
        En fin, solo me quedaria no abusar de los anchor. :) aunque como te comento solo la competencia los utiliza sin problemas. En fin…
        ¿Es posible que haya llegado a mi máximo orgánico y google este estabilizando la web?

        Eres un crack. Cada artículo rezuma conocimiento, experiencia y es 100% comprensible. Entra facil.

        ¡Feliz Finde!

        • Debo admiitr que estás empezando a generarme curiosidad :)
          ¿Me puedes mandar un mensaje a través del formulario de contacto?

          ¿Dices que has notado cambio al cambiar de un sitemap a otro (muy similar)?, ¿o solo que ha coincidido que has hecho ese cambio?

          Y sobre tu pregunta: no puedo darte una respuesta pues me faltan muchos datos, pero recuerda que la teoría del máximo orgánico se aplica en un caso muy concreto. Lo que digo en ese post es lo que digo en ese post, pero no más, y no puede aplicarse a muchos proyectos. Lo matizo porque ya he observado más de una vez que algún lector se queda solo con el titular y luego lo aplica fuera del contexto que explicaba en el post, y por eso ahora intento ser todavía más preciso.

          Y con respecto a tu frase final: ¡mil gracias! :D

          • Pablo ManMar

            listo, tienes un email :)

          • Jorge

            Hola Nacho,

            Pues ahora que os leo, por mi parte te puedo contar que hice un cambio de quitar el sitemap de Google XML y poner el de Yoast (en este caso, fue al revés de lo que comentan arriba), y al día siguiente de indexar todo de nuevo hice mi récord de visitas orgánicas.
            ¿Casualidad? Ni idea, pero cuanto menos es curioso.
            ¿Has observado algún patrón similar otras veces? Sería algo así como que un sitemap con el otro se “complementan” y aportan mejores datos a Google.
            ¿Qué opinas?
            Saludos!

          • Hola Jorge.

            Me parece más una casualidad que una influencia tan fuerte del cambio del sitemap.

            Por un lado, añadir un sitemap no suele tener un impacto tan grande. Para que lo tenga, la indexación del portal debe ser muy mala. Cuando esto ocurre suele ser porque el enlazado interno suele ser muy malo o porque el portal tiene una cantidad muy elevada de páginas. Pero si ya tenías un sitemap no creo que la pequeña diferencia que hay entre uno y otro pueda ser tan determinante.

            Además, las presuntas casualidades son más comunes en SEO de lo que parece. Me explico: cada cierto tiempo, Google puede actualizar algo de su algoritmo o puede reevaluarte de alguna forma, y así tú observar una subida o bajada. Si coincide que justo has hecho algún cambio durante esos días, es tentador pensar que la causa de la subida/bajada es ese cambio, pero a veces simplemente no tiene nada que ver.

            Un saludo.

Servicios profesionales
SEO
Diseño web