Los backlinks, ¿a la baja por el spam y el auge de la búsqueda contextual?
¿Son los backlinks o enlaces externos una señal de clasificación a la baja en internet?, ¿seguirán Google y otros motores de búsqueda devaluando la importancia de estos hipervínculos en los próximos años? La respuesta a estos interrogantes es, al parecer, afirmativa. Juntamente con las palabras clave, los backlinks han gozado de una relevancia histórica indiscutible en la búsqueda online. Hoy su ‘reinado’ ha llegado a su fin, principalmente por el auge de la búsqueda contextual y la llegada de cambios algortímicos destinados a combatir las páginas de spam posicionadas con técnicas de black hat SEO.
Los backlinks en SEO comenzaron a influir tempranamente en la clasificación de resultados online debido a que, en un principio, buscadores como Google estaban basados enteramente en este factor de posicionamiento. Así, el motor de búsqueda creado por Larry Page y Sergéi Brin reconoció en 1996 el potencial de los enlaces y anchor texts como indicadores del valor que una página web podía adquirir para los internautas. Su interpretación no podía ser más simple: a mayor número de backlinks, mayor valor y relevancia teórica de la página. Y aunque no era una fórmula perfecta, convirtió a Google en líder de su industria.
Los buscadores que precedieron al lanzamiento de Backrub (Google, en la actualidad) se enfocaban únicamente en la reiteración de palabras clave para decidir el grado de correspondencia entre una consulta dada y el resultado a devolver. En consecuencia, AltaVista y otros antecesores del buscador propiedad de Alphabet ignoraron por completo los backlinks. «Después de que Google se volviera famoso, quedó claro que los enlaces eran la clave para una mejor clasificación. Industrias enteras se levantaron para atender la necesidad de enlaces, como directorios web y corredores de venta de enlaces», recuerda el especialista en marketing Roger Montti en un artículo para Search Engine Journal.
Penguin: un primer varapalo para los enlaces externos
La manipulación de las SERPs era un severo problema en el año 2012, cuando Google lanzó una de sus actuaciones algorítmicas más radicales, Penguin. Esta actualización pretendía combatir una práctica de black hat conocida como esquema de enlaces y recompensar a los sitios web que orientaban sus esfuerzos a ofrecer contenido de calidad a los usuarios.
En concreto, el objetivo del esquema de enlaces es manipular los resultados de búsqueda mediante la compra de backlinks de pésima calidad que eleven artificialmente la relevancia de uno o más sitios web. Las páginas de spammy, que en 2022 superaron la cifra de los 25.000 millones, se beneficiaban de esta técnica para alcanzar un ranking más elevado y así obtener la mayor exposición posible, muy por encima de contenidos de mayor calidad y relevancia.
Con la introducción de Penguin, el 3,1% de las consultas online se vieron seriamente afectadas. ¿El problema? Penguin supuso un varapalo no sólo a los enlaces fraudulentos, sino también a los enlaces legítimos de calidad media y baja (la calidad de un enlace puede medirse, en cierto modo, por la autoridad y la relevancia de la página de origen en cuestión; que esta no sea top, no significa que sus enlaces deba valer cero).
La actualización del ‘pingüino’ también supuso un punto de inflexión para la creación del anchor que acompaña a los enlaces. Es común —incluso hoy y sin que ello conlleve una penalización expresa— adicionar una palabra clave al texto de anclaje, con el fin de mejorar su impacto en el posicionamiento SEO. Llevada a ciertos extremos, esta práctica hacía que los webmasters incurrieran en el relleno de palabras clave o keyword stuffing, razón por la que Penguin comenzó a moderar su uso.
En perspectiva, la devaluación de una parte de los backlinks de internet fue algo más que un efecto colateral de Penguin. Su objetivo era desbaratar el ardid más utilizado por los spammers del momento, el enlace de retroceso, cuyo valor como señal de posicionamiento era mucho mayor antes de 2012. Para compensar su pérdida de preponderancia, los ingenieros de Mountain View han pulido otras facetas de PageRank, como la comprensión de las consultas del usuario y de su intención de búsqueda, a fin de devolverle resultados más precisos y eficaces, sin depender tanto de los hipervínculos.
Hummingbird: la búsqueda contextual se impone en perjuicio de los enlaces
Primeramente, conviene aclarar qué es la búsqueda contextual. Este concepto se remonta a 2013 y puede definirse como el uso de información personal del usuario (geolocalización, historial de búsqueda, etcétera), facilitada voluntariamente, para devolverse resultados adaptados a sus intereses y necesidades.
La búsqueda contextual de Google implica que el buscador ‘recuerda’ las peticiones de los internautas, y en los últimos años se ha refinado a muchos niveles gracias a tecnologías como el machine learning. En este sentido, la comprensión del lenguaje humano ha sido un obstáculo severo para los algoritmos de Google, debido a la dificultad para entender lo que el usuario quiere y no expresa de manera abierta y clara, sin las omisiones o incorrecciones que abundan en el habla coloquial. Para facilitar el procesamiento eficaz de estas consultas, el gigante de las búsquedas de internet introdujo en agosto de 2013 la actualización Hummingbird.
Malinterpretar la intención de búsqueda era un problema frecuente en Google antes de la implementación de Hummingbird. Su finalidad era mejorar la coincidencia entre las consultas del internauta más coloquiales y conversacionales y los resultados ofrecidos en las SERPs. Este tipo de búsqueda se había disparado con la irrupción de la búsqueda móvil, y hoy sigue creciendo a impulsos de las búsquedas de voz.
La capacidad para comprender la búsqueda contextual, sumada a un mayor escrúpulo para considerar los enlaces externos para clasificar páginas, ha provocado la pérdida de influencia de estos hipervínculos y de su anchor text en favor de otros factores de posicionamiento: variación de palabras clave, longitud del texto, freshness, etcétera.
En cierto modo, John Mueller, actual Webmaster Trends Analytics de Google, predijo la pérdida de notoriedad de los enlaces como señal de posicionamiento: «Imagino que, con el tiempo, el peso de los enlaces en algún momento disminuirá un poco, ya que podemos descubrir un poco mejor cómo encaja el contenido en el contexto de toda la web. Y hasta cierto punto, los enlaces siempre serán algo que nos importa porque tenemos que encontrar páginas de alguna manera. Mi conjetura es que, con el tiempo, no será un factor tan importante como a veces lo es hoy. Creo que eso es algo que ha estado cambiando bastante».
Por qué los backlinks continúan siendo relevantes para Google
Es innegable que los enlaces de retroceso han perdido parte de su relevancia en la clasificación de resultados de búsqueda, siendo menos determinantes que antes de la aparición de Penguin y Hummingbird. Sin embargo, ni John Mueller ni ningún otro googler —trabajador de Google— han afirmado que los backlinks carezcan de valor en absoluto para el buscador de Mountain View.
Citando al ingeniero de Google, Cody Kwok, «los hipervínculos aún nos ayudan a descubrir y clasificar los resultados de formas significativas, y en 2021 hicimos grandes progresos para proteger este indicador principal». Asimismo, subraya que en Google se esfuerzan en «identificar en gran medida los enlaces no naturales y evitar que afecten la calidad de la búsqueda».
Por más que la búsqueda contextual y la comprensión de la intención de búsqueda haya mejorado, los algoritmos de búsqueda siguen dependiendo de los enlaces de retroceso para determinar, por ejemplo, el grado de confianza depositado en un sitio web o su autoridad en un nicho de mercado en particular. La lógica del buscador es simple, casi primitiva en este caso: contra mayor número de enlaces entrantes posea una página y mayor sea la calidad de estos, mayor será su respetabilidad y confiabilidad.
Sencillamente, la búsqueda online se ha sofisticado hasta tal punto que Google es capaz de minusvalorar los enlaces de baja calidad y de tomar en cuenta otras señales de posicionamiento, más útil a la hora de determinar el ranking que una página merece en internet. De hecho, un exceso de enlaces de mala calidad puede ocasionar problemas a la reputación del sitio web (es lo que se conoce como SEO negativo y no siempre es deliberado).
Sintetizando lo dicho, los enlaces externos han disminuido su importancia año tras año, pero continúan siendo una de las principales señales de posicionamiento y, por tanto, no deberían ser ignorados por los expertos en marketing ni por los propietarios de sitios web. En este sentido, estos errores de link building condensan una serie de malas prácticas que deberías evitar a la hora de enlazar contenidos en páginas web.
Tabla de contenidos