¡Cuidado! Estas 10 penalizaciones de Google destruirán tu posicionamiento SEO
Son la pesadilla del black hatter y las grandes aliadas del especialista en SEO. Las penalizaciones de Google han instaurado una cierta ley y orden en los resultados orgánicos de búsqueda, preservando los estándares W3C de seguridad, garantizando el fair play entre empresas competidoras y proporcionando calidad y protección a sus 92 billones de usuarios (de acuerdo a Similarweb). En la práctica desempeñan, sin embargo, una función menos prosaica: replesaliar a tramposos y spammers en beneficio de los esforzados ‘marketeros’ que construyen su posicionamiento ateniéndose a las directrices para webmasters de Google.
Desde los famosos cloaking y keyword stuffing hasta el contenido duplicado, las redirecciones engañosas o el spam generado por el usuario: cualquiera de estas prácticas maliciosas conlleva penalizaciones de Google en SEO capaces de arruinar la clasificación de páginas individuales y de webs al completo. Numerosas ‘víctimas’ dan fe de ello. En 2013 la cadena Interflora fue sancionada por ‘abonar’ su tráfico de visitantes con publirreportajes sembrados de backlinks poco naturales; mayor fue el pecado de BMW cuando en 2006 vio castigado su posicionamiento por la creación de páginas doorway; ni siquiera Forbes logró esquivar el brazo justiciero de Google, que en 2011 penalizó a la revista de negocios por vender enlaces a terceros, según informó TechCrunch.
¿Qué penaliza Google en SEO? 10 malas prácticas que no quedarán sin castigo
Cloaking
En 2012, con la introducción del algoritmo Penguin, el buscador de Alphabet comenzó a castigar una serie de técnicas que mostraban distinto contenido a usuarios y googlebots, con el fin de engañar a éstos y lograr un mejor posicionamiento en las consultas de aquéllos. El encubrimiento o cloaking —del verbo ‘encubrir’ en inglés, cloak‘— pretende manipular los resultados de búsqueda a través de la ocultación de texto y enlaces, principalmente, y por ello acarrea una grave penalización de Google en SEO.
Consultado acerca de las líneas divisorias del cloaking, el desarrollador de Google Martin Splitt aclaró en Search Engine Journal que esta técnica sólo persigue «engañar al usuario. Eso significa que si un robot de Google está solicitando [información de] mi sitio web y digo que trata sobre gatitos y mariposas, y luego cuando un usuario accede a la web, encuentra una farmacia en línea o una tienda de productos de imitación, entonces eso estaría muy en contra de la intención del usuario y no coincidiría con lo que mostraríamos en los resultados de búsqueda».
Enlaces poco naturales
Otra de las prácticas malintencionadas que penaliza Google en SEO son los enlaces poco naturales, creados con el único propósito de influir en la clasificación de resultados de búsqueda, en lugar de referenciar contenidos útiles o de ampliar su información a través de terceros. Desde 2012, cuando el algoritmo Penguin fue introducido, el abuso de enlaces innaturales ha estado duramente perseguido por el buscador propiedad de Alphabet.
En el documento Esquemas de enlaces de Google Developers, los de Mountain View aclaran que «consideramos una infracción de nuestras directrices que se creen enlaces artificiales en una página; es decir, enlaces que no se han colocado siguiendo un criterio editorial o que el propietario no ha solicitado», y se ejemplifica con las siguientes irregularidades: anuncios de texto que manipulan el PageRank, anuncios de publicidad nativa en los que el pago se recibe por artículos que incluyen enlaces que manipulan el PageRank, y enlaces con texto optimizado en comunicados de prensa distribuidos por otras webs.
Contenido duplicado
La duplicación de contenido carece de intencionalidad en la mayoría de las ocasiones. Terreno propicio para este error son los foros, las distintas versiones web y destokp de una misma web o una paginación sin etiquetas ‘rel=next’ y ‘rel=prev’. Sin embargo, Google penaliza el contenido duplicado porque, en algunos casos, pretende «manipular el posicionamiento de un sitio web en los buscadores o conseguir más tráfico» y, por tanto, «perjudican la experiencia de los usuarios, ya que verán el mismo contenido repetido en diferentes resultados de búsqueda», tal como se detalla en Google Developers.
La presencia de contenido duplicado es una piedra en el camino para cualquier especialista en SEO. Porque además de deteriorar el posicionamiento, las contramedidas de Google incluyen el delisting, es decir, la desindexación de una página o web de las SERPs, lo que equivale a su ‘muerte’ digital. Prevenir este trágico destino depende de la revisión constante, realizada con ayuda de herramientas y recursos online como Copyleaks, Siteliner, Copyscape o Hive Digital Duplicate Content.
Keyword stuffing
Por su influencia en los algoritmos de búsqueda, las palabras clave son objeto de constante manipulación desde los años noventa. Gran parte de las actualizaciones de Google (Florida en 2003, Panda en 2011, Hummingbird en 2013 etcétera) han fomentado su correcta utilización, sancionando las irregularidades al respecto. Pese a ser una práctica SEO inútil, el keyword stuffing sigue gozando de popularidad en los bajos fondos del marketing. Se define como la sobreoptimización o el relleno de palabras clave en un texto, con el objetivo de aumentar su relevancia a ojos de los buscadores y mejorar su clasificación.
Aunque quizá sea una de las malas prácticas más sancionadas, el keyword stuffing no acarrea necesariamente la desindexación. El analista senior de tendencias de Google, John Mueller, lo confirmó desde su perfil en Twitter. Consultado por un usuario, aseguró que «el relleno de palabras clave de esa web no debería resultar en su eliminación del índice». Con todo, esta y otras técnicas black hat son una pésima forma de mejorar el SEO a medio-largo plazo.
Páginas ‘doorway’
Si todos los caminos conducen a Roma, todas las páginas doorway conducen a una misma web. Este tipo de página se crea para ocupar múltiples resultados en las SERPs y redirigir a los usuarios a la web matriz (la que de verdad interesa posicionar). Una red de páginas doorway convierte al internauta en una pelota de ping pong, redireccionándolo en múltiples ocasiones y haciéndole perder un tiempo valioso. Este intento por maximizar la «huella de búsqueda» deteriora la experiencia del usuario. Según el fundador del equipo de analistas antispam de Google, Brian White, «los buscadores pueden obtener una lista de resultados que van todos al mismo sitio. Entonces, si un usuario hace clic en un resultado y no le gusta, y luego intenta el siguiente resultado en la página de resultados de búsqueda y es llevado al mismo sitio que no le gustó, esa es una experiencia realmente frustrante», citando una publicación de Google Developers.
Las páginas doorway son, por tanto, causa frecuente de penalizaciones de Google en SEO. Para evitar incurrir en ellas de manera accidental, conviene familiarizarse con ejemplos de páginas doorway: (1) el enlazado de páginas o nombres de dominio que canalizan a los usuarios hacia una sola web o (2) la creación de páginas muy similares que se fundamentan no en una distinción real y necesaria, sino en la búsqueda de tráfico orgánico.
Redirecciones engañosas
Parcialmente similar a la anterior, las redirecciones engañosas o sneaky redirects son una táctica extendida entre los black hatters que vulnera la experiencia de navegación. Los usuarios son redireccionados a URLs distintas de las mostradas en las SERPs, situación que no siempre obedece a una mala práctica —un cambio de dominio o un renombre de la URL original son causas comunes—. Sin embargo, si la dirección ‘FloresOrtega.es/gladiolos’ reconduce a sus visitantes a ‘SegurosBaratos.es/poliza-a-todo-riesgo’, es evidente que la redirección es engañosa y que no pretende satisfacer al usuario, sino engrosar el tráfico web de forma maliciosa.
Scrapping
Pastiche y plagio son distinta cosa, al igual que citar información de terceros es distinto a hacer content scraping o ‘raspado’ de contenidos. «Algunos propietarios de sitios web usan contenido copiado de otros sitios que tienen mayor reputación suponiendo que aumentar el volumen de páginas de sus sitios es una buena estrategia a largo plazo», señalan desde Google Developers. Trascendiendo cuestiones éticas, el scraping es una técnica perseguida por los algoritmos de Google porque los contenidos resultantes se desentienden de la relevancia y la originalidad, tan valoradas por el buscador en su proceso de rastreo e indexación. Una variante de esta tramposa práctica es el spinning, similar pero diversificando las fuentes. Y no, tampoco estos ‘frankensteins’ engañan al gigante de las búsquedas de Internet.
PBN
Garantizan un enorme control, generan tráfico cualificado y proporcionan enlaces seguros y de calidad. Las redes privadas de blog o private blog networks (PBN) son un caramelo difícil de rechazar, pero Google (que reconoce en esta práctica un claro intento de manipular sus SERPs) disuade a los especialistas en SEO desde 2014, primero con el envío de advertencias y después con ‘hachazos’ a su posicionamiento. Los de Mountain View persiguen con afán inquisidor «cualquier enlace destinado a manipular el PageRank o la clasificación de un sitio en los resultados de búsqueda», tal como subrayan en sus guías de Google Developers, y es innegable que la finalidad de una PBN es cruzar enlaces entre webs con intereses afines en busca de un mejor posicionamiento.
Distintos expertos en SEO señalan la peligrosidad de las PBN. Para Seb Atkinson, «son una forma rápida de comprar enlaces y mejorar su clasificación, pero esta es una técnica muy antigua y es probable que hoy en día genere penalizaciones». Más contundente se muestra Andrew Speer, consultor de Fund Ourselves, para quien «las PBN han perdido el favor de Google, a pesar de ser muy utilizadas aún en Internet».
Spam generado por usuarios
Los ataques de spam no apuntan indistintamente a usuarios. Empresas y negocios digitales son objetivos habituales de esta mala práctica, que se ceba en particular con los sitios web dotados de foros, cajas de comentarios y formularios de registro de usuarios. Los webmasters no son responsables del spam generado por sus visitantes o user-generated spam, y aunque los buscadores son conscientes de ello, aplican igualmente penalizaciones de Google, Bing, etcétera. La vigilancia regular o el uso de plugins antispam como WP-SpamShield o Spam Master son una solución factible.
Tabla de contenidos