Google se encuentra de lleno en su evento anual Google I/O. Un evento virtual para desarrolladores que se inició el 18 de mayo y en el que se presentarán diversas novedades. Como el nuevo Android 12, el nuevo Wear OS o diversas mejoras de privacidad y transparencia. Pero una de las cosas que más nos llamó la atención de la sesión de ayer fue la presentación de MUM. Un nuevo modelo de IA multimodal que facilita el acceso a la información y a la interacción y con el que el buscador de Google se va a hacer mucho más inteligente.

 

El formato de las búsquedas ha evolucionado constantemente desde la creación de Internet. De un modelo que indexaba por categorías pasamos a un entorno que reacciona a nuestras circunstancias y añade información global a nuestra información privada.

En el año 2019, con el objetivo de comprender mejor las consultas Google lanzó BERT. Un modelo de inteligencia artificial destinado a comprender mejor las consultas dirigidas al buscador. Es decir, un sistema enfocado a entender el lenguaje que utilizamos los usuarios en nuestras búsquedas. Después de dos años, Google reemplaza BERT con MUM, su Modelo Unificado Multitarea, que una capa de comprensión que va más allá de los resultados de texto y ofrece unos resultados de búsqueda más completos.

mum Google I/O 2021

Qué era BERT

BERT – o Representaciones de Codificador Bidireccional de Transformadores – fue una técnica de representación del lenguaje basada en arquitectura de redes neuronales para el Procesamiento del Lenguaje Natural que permitía entrenar un sistema de respuesta a preguntas de última generación.

El objetivo de BERT era mejorar el entendimiento de las búsquedas que efectúan los usuarios, relacionando cada una de las palabras de una frase con el resto para comprender la manera en que nos expresamos habitualmente y ofrecernos mejores y más precisos resultados de búsqueda.

BERT procesa cada palabra de una consulta en relación al resto de palabras. En lugar de hacerlo una por una en orden como se hacía hasta ahora. De esta manera, los modelos BERT pueden obtener un contexto más preciso de la intención de la búsqueda.

 

MUM, el nuevo Modelo Unficado Multitarea

Pero MUM va mucho más allá. No sólo es capaz de entender una pregunta compuesta por diferentes condiciones de resultados. Sino que agrupa toda la pregunta para entregar resultados visuales, en video, texto o cualquier otro soporte que el buscador detecte como válida.

Tal como explicaba Prabhakar Raghavan, vicepresidente senior de Google, durante el evento Google I/O 2021: “Imaginemos una consulta compleja y conversacional, como ´He subido a la montaña Adams y ahora quiero caminar por el monte Fuji el próximo otoño, ¿qué debería hacer de diferente para prepararme?´ Esto dejaría perplejos a los motores de búsqueda de hoy, pero en el futuro, MUM podría entender esta complicada pregunta y generar una respuesta bien organizada, apuntando a resultados altamente relevantes. Hemos iniciado pruebas piloto internas con MUM y estamos entusiasmados con su potencial para mejorar los productos de Google”.

MUM

En el futuro, MUM podría entender que se están comparando dos montañas, por lo que la información de elevación y sendero puede ser relevante. También podría entender que, en el contexto de las caminatas, “prepararse” podría incluir cosas como entrenamiento físico, así como encontrar el equipo adecuado. Debido a que puede identificar y comprender estos matices, MUM tiene el potencial de mostrar información más relevante para preguntas como estas.

Otro aspecto que hace único a MUM es su capacidad para generar respuestas basadas en su profundo conocimiento del mundo. Por ejemplo, el sistema podría generar una respuesta destacando que es posible que el usuario necesite una indumentaria diferente según la época del año en la cual quiera escalar cada una de las montañas.

Además, esta tecnología tiene el potencial de romper la barrera idiomática mediante la transferencia de conocimientos entre idiomas. Esto quiere decir que puede obtener conocimientos de fuentes que no estén escritas en el idioma en el que el usuario efectuó su búsqueda. Procesar todos esos datos y ser capaz de brindarnos esa información.

Por último, al ser multimodal, MUM puede procesar información de formatos diferentes; páginas web, imágenes, vídeos, etc., simultáneamente. Con el tiempo, un usuario podría tomar una fotografía de sus botas de montaña y preguntarle a Google: “¿Puedo usarlas para caminar por un sendero montañoso?”. La inteligencia artificial de MUM entendería la imagen y la relacionaría con la pregunta. Para luego contestar si ese calzado es óptimo o no para lo que se desea. Y en caso de que no sea así, incluir un listado de sugerencias.

mum

El futuro de MUM

En la presentación de esta nueva tecnología, Prabhakar Raghavan explicó que todavía está en estado de pruebas y que aún pasará un tiempo hasta que se incorpore al buscador: “Así como probamos cuidadosamente las muchas aplicaciones de BERT lanzadas desde 2019, MUM se someterá a este proceso a medida que apliquemos estos modelos en la Búsqueda durante los próximos meses y años. Específicamente, buscaremos patrones que puedan indicar sesgos en el aprendizaje automático para evitar introducir sesgos en nuestros sistemas”.

 

MUM está capacitado para entender 75 idiomas, al ser multitarea obtiene una mayor comprensión de la información y al ser multimodal comprende la información en texto e imágenes y, en el futuro, se expandirá a otras opciones como vídeo o audio.

Francesc es el responsable de Content Marketing de Sinapsis. Con más de diez años de dedicación al copywriting ha acumulado una gran experiencia en diversos temas aunque su mayor pasión sigue siendo el marketing online. Friky de corazón, ha encontrado en el SEO una nueva forma de seguir "jugando".