Google ha anunciado recientemente su mayor avance en estos últimos cinco años en su algoritmo de búsqueda. E, inesperadamente, lo ha hecho ofreciendo una explicación pública inusitadamente detallada. Ha llegado BERT, el último ajuste del algoritmo de búsqueda de Google, con toda la fuerza de la inteligencia artificial y el machine learning para mejorar la manera en que maneja, de momento, las búsquedas redactadas en inglés coloquial.

Se calcula que BERT alterará la clasificación en el 10% de los resultados de búsqueda de Google. Y, tal como afirma Pandu Nayak, vicepresidente del departamento de búsqueda de Google, en el artículo Understanding searches better than ever before, BERT ayudará a comprender mejor 1 de cada 10 búsquedas.

Nayak explica que la compresión del lenguaje, gracias a este algoritmo de aprendizaje automático, está permitiendo una mejora significativa en la forma en que Google entiende las consultas, lo que representa uno de los mayores avances en la historia de la búsqueda.

BERT

 

Qué es BERT

 

Abreviatura de Bidirectional Encoder Representations from Transformers, BERT es una técnica de representación del lenguaje basada en arquitectura de redes neuronales para el Procesamiento del Lenguaje Natural que permite entrenar un sistema de respuesta a preguntas de última generación. Este avance es el resultado de la investigación de los de California durante el último año sobre transformadores, modelos que procesan palabras en relación con todas las otras demás dentro de una oración, en lugar de tomarlas una por una en orden.

De esta manera, el objetivo de BERT es mejorar el entendimiento de las búsquedas que efectúan los usuarios, relacionando cada una de las palabras de una frase con el resto para comprender la manera en que nos expresamos habitualmente y ofrecernos mejores y más precisos resultados de búsqueda.

Por otro lado, BERT no ha llegado para sustituir a los algoritmos anteriores. Su función es colaborar con los demás.

Google BERT

 

Cómo funciona el nuevo algoritmo

 

Como os explicábamos, BERT procesa cada palabra de una consulta en relación al resto de palabras, en lugar de hacerlo una pro una en orden como hacía hasta ahora. De esta manera, los modelos BERT pueden apreciar un contexto más preciso de la intención de la búsqueda.

Esta nueva herramienta de Google es útil para consultas efectuadas con frases más largas o, por ejemplo, búsquedas donde la intercalación de preposiciones cobra relevancia.

En el artículo antes comentado de Pandu Nayak podemos ver unos cuantos ejemplos. Como referencia, en este artículo describiremos uno de ellos:

Antes de BERT, la búsqueda “2019 brazil traveler to usa need a visa” (2019 viajar de Brasil a Estados Unidos hace falta visado) devolvía en su primer resultado un artículo del Washington Post sobre viajar a Brasil desde Estados Unidos. El buscador no entendía la importancia de la preposición “to”  (a) en la frase. En cambio, con el nuevo algoritmo, el buscador devuelve como primer resultado la web de la embajada estadounidense en Brasil, concretomente, una página sobre visados para turistas brasileños.

 

 

Cuándo llegará BERT

 

Desde la pasada semana BERT ya está opertativo en inglés en los Estados Unidos y, paulatinamente, se irá extendiendo a más idiomas y más localizaciones. De hecho, una de las características intrínsecas de los sistemas de inteligencia artificial para aprender un nuevo idioma es que pueden tomar como base el aprendizaje de un idioma anterior. Por lo que BERT usará los modelos de aprendizaje de las mejores en inglés para aplicarlos a nuevos idiomas.

Actualmente, Google ya está utilizando un modelo BERT para mejorar los fragmentos destacados en los países en los que esta función está disponible, observando mejoras significativas en algunos idiomas como el coreano, el hindi o el portugués.

Google BERT

No sabemos cuándo se producirá la implantación en español y en nuestro país pero, al igual que con la expansión de Rankbrain de 2015, probablemente no tarde mucho. ¿Cómo creéis que nos afectará al SEO?

Francesc es el responsable de Content Marketing de Sinapsis. Con más de diez años de dedicación al copywriting ha acumulado una gran experiencia en diversos temas aunque su mayor pasión sigue siendo el marketing online. Friky de corazón, ha encontrado en el SEO una nueva forma de seguir "jugando".