Como es habitual, el gigante de los buscadores continúa mejorando sus algoritmos. Esto representa un desafío para los programadores, quienes deben idear mejores formas de construir sus páginas, para los SEOs (Marketer) que rankean las Páginas Web en los resultados de Google.
Sin embargo, estos cambios no son nuevos, puesto que Google a lo largo de los años ha ido implementado diferentes algoritmos de indexación que permitan optimizar sus tiempos de respuesta. Específicamente desde el 2009, el chico grande de la red ha trabajado en mejorar su arquitectura de búsqueda.
Estas apuestas de Google, siempre han supuesto un reto para los programadores, quienes deben reinventarse y lograr conseguir un buen posicionamiento SEO.
Pero, ¿qué es SEO? El Search Engine Optimization es una optimización en los motores de búsqueda que mejora la visibilidad en los resultados orgánicos de los diferentes buscadores.
Esta movida nació de la necesidad de suplir los requerimientos de los internautas que, en la medida que las páginas evolucionaban y agregan más y diverso contenido, las expectativas de las personas eran más altas en sus resultados de búsquedas. Era mandatorio que agregaran los contenidos más relevantes y actualizados.
Ahora bien, justamente pensando en la premisa de mejorar las búsquedas bajo parámetros de autoridad y relevancia, Google ha implementado diferentes mejoras para priorizar los resultados bajo esos dos factores y así, ofrecer las mejores alternativas a los internautas.
Entre los primeras innovaciones de la arquitectura de búsqueda de Google, encontramos a Google Caffeine que lanzada en agosto de 2010, ofrecía resultados de búsqueda 50% más actualizados que el sistema anterior.
Esto suponía que iba a ofrecer una colección más grande de contenido web, sin importar la índole de la que provenían, páginas web, blogs, etc.
Antes de Caffeine, Google contaba con varias capas, las cuales era refrescadas para ser actualizada. Para lograrlo el buscador debía analizar la web entera y así poder arrojar un resultado, lo que representaba una demora para los usuarios.
Con el surgimiento de Caffeine, Google tenía la posibilidad de analizar la web en pequeñas porciones, lo que le permitía actualizar el índice de búsqueda constantemente. Esto quiere decir que, en la medida que encontraba una web nueva o información nueva en ellas, las podía adicionar al índice de búsqueda, ofreciendo información actualizada como nunca antes se había visto.
Todo esto significó uno de los primeros grandes retos para los creadores contenidos web, quienes debieron encargarse de ofrecer mayor cantidad de contenidos “fresco” y para los programadores también, quienes debieron ingeniárselas para ofrecer portales con tiempos de carga mucho más rápidos.
Básicamente, Caffeine se encargaba de mostrar contenidos más actualizados, encontraba enlaces después de ser publicados e incluía a Facebook y Twitter entre sus resultados.
Más tarde, en 2011, Google anunció una nueva actualización de sus motores de búsqueda. Se trataba de Google Panda que comenzó desestimando viejas herramientas como metatags y volviéndole a dar mayor relevancia a la originalidad y a la calidad de los contenidos publicados en la web.
Este nuevo cambio surgió de la necesidad de detener la proliferación de webs que diseminaban spam y copiaban contenidos con la única finalidad de atraer usuarios y bombardearlos con publicidad.
En un principio, este algoritmo creó algunos inconvenientes con algunos sitios que generaban mucho contenido original, puesto a que almacenaban gran cantidad de contenido viejo, lo que era considerado como pernicioso por Google.
Esto, en pocas palabras, retó a los programadores a mejorar el diseño y la maquetación de las páginas web y, a los generadores de contenidos a enriquecerlos y optimizarlos.
Con esta implementación, Google buscaba saldar la vieja deuda y fortalecer su herramienta de detección de spam, filtrar los contenidos de baja calidad y detectar los “content farm”. Es decir, su misión era combatir los sitios de mala calidad.
Y lo logró, gracias a Panda, muchas páginas que generaban contenidos originales, fueron mejor rankeadas. Es decir, mejoró exponencialmente la experiencia del usuario porque le dio prioridad a aquellos portales que aportaban el mayor valor para el visitante.
Para Panda, el contenido era el rey, puesto que mientras más original y de valor fuese el contenido de la página, mucho mejor iba a ser posicionada. Es decir, saldría en en lugares más relevantes entre los resultados de búsqueda.
Otra de las implementaciones de Panda, fue el peso que le confirió a la buena ortografía y sintaxis, puesto que partía de la premisa de que los usuarios estaban ávidos de encontrar contenidos interesantes y escritos correctamente.
Sin olvidar, por supuesto, que no todo el contenido es texto. Con Panda aquellos portales que le añadían elementos multimedia a sus productos, mejor eran calificados por el buscador.
Si seguía la receta, los portales conseguían menor índice de rebote, puesto que contaban con el suficiente contenidos para mantener cautivo al visitante, lo que en consecuencia incrementaba el crecimiento de la media de visitas, aumentaba el número de páginas vistas por internauta y fomentaba el social link puesto que un contenido interesante, tiene muchas más posibilidades de ser compartido y amplificado en las redes sociales.
Luego, en 2012, Google volvió a ajustar sus algoritmos de indexación y sacó a la luz a Google Penguin, una nueva arquitectura que arremetía nuevamente contra el spam y los enlaces de baja calidad.
Para Penguin, la calidad siempre iba antes que la cantidad. Lo que supuso el fin de aquellas páginas que se valían de múltiples enlaces de baja calidad para mejorar su posicionamiento.
Para los generadores de contenido, esto implicaba que debían estar atentos a los enlaces a los que interconectaban su material, puesto que Google penalizaba a aquellos que hipervinculaban a portales sin relación alguna.
También arremetió contra el key surfing, las Doorway Pages y el Cloacking. Lo que en suma disminuía aún más las páginas con contenido pernicioso.
Pero Penguin no fue la última actualización de Google, porque para el 2013 nació Gooogle Hummingbird un nuevo código de indexación, creado para afectar el 90% de las búsquedas y, lo más importante, era el primer algoritmo escrito desde cero.
Hummingbird, llamado así en honor a los colibrís, era un algoritmo rápido y preciso en los resultados. Además, presentó una gran innovación, era capaz de entender las búsquedas complejas.
Sin embargo, la razón de la existencia de Hummingbird está en la proliferación de dispositivos móviles que, poco a poco, también comenzaban a permitir la elaboración de búsquedas complejas en la versión mobile del buscador.
Aunque hay que aclarar que las ambiciones de Hummingbird iban mucho más allá. Esta nueva arquitectura de búsqueda fue pensado para responder a mandos de voz.
Hummingbird representó el primer motor de búsqueda que realmente entendía el significado de la misma. Sus antecesores se limitaban a recopilar las palabras y buscarlas en sus bases de datos, mostrando los resultados en función de los factores del algoritmo, pero no los comprendía.
En resumen, Google ha apostado desde siempre a mejorar la experiencia del usuario. Sus innovaciones no sólo son un supuesto reto a los desarrolladores y generadores de contenido, sino que sin duda, ha cambiado la manera en la que actualmente concebimos al Internet y su funcionalidad en el mundo.