Connect with us

Noticias

¿Qué es Google BERT? Procesamiento del lenguaje natural

Published

on

GOOGLE BERT

Google está decidido a ofrecer una mejor respuesta a cada consulta realizada por los usuarios. Mejorar la experiencia de usuario es la razón principal por la que ahora han anunciado incorporación (en modo de prueba) de una herramienta de machine learning que descifrara de una mejor manera la consulta del usuario y ayudará a Search a brindar un a respuesta satisfactoria para el usuario, así lo han dejado ver el dia de hoy en el anuncio publicado en el blog de Google. Y de eso se trata BERT.

¿Que es BERT y por qué Google lo menciona?

BERT es un sistema de procesamiento del lenguaje natural. Bidirectional Encoder Representations from Transformers (Representaciones de encoders bidireccionales de transformadores), o como la llamamos: BERT, para abreviar. Esta tecnología permite a cualquiera entrenar su propio sistema de respuesta de preguntas de última generación.

¿Por qué es tan importante ahora?

La razón de ello, es que Google ahora lo incorporará, en modo de prueba, en 1 de cada 10 consultas realizadas en los EE.UU. Esto con el objetivo de mejorar la respuesta del buscador, ofreciendo un resultado coherente con la consulta del usuario.

BERT, se encargará de encontrar un contexto adecuado para la consulta del usuario y a través de Search ofrecerá un resultado apropiado.

Posiblemente, en adelante, las respuestas de Google estarán relacionadas con la búsqueda del usuario, pues gracias a BERT podrá comprender la intención de la búsqueda del usuario. 

También, BERT estará presentado en los fragmentos destacados, de hecho ahora mismo se está probando en varios idiomas como el portugués, el hindi y coreano.

¿Que deben hacer los SEOs ante BERT?

Básicamente nada o quizás mucho, todo depende del tipo de contenido que ofrezcan, si estos ofrecen mejor experiencia de usuario y si BERT puede comprenderlos. Posiblemente lo haga, si el contenido ha sido preparado para que lo comprenda una persona y no un bot.

A Continuación, te dejo el comunicado traducido al español, he resaltado las partes que considero interesantes. 

Comprender las búsquedas mejor que nunca

Si hay algo que he aprendido durante los 15 años que llevo trabajando en Google Search, es que la curiosidad de la gente es infinita. Vemos miles de millones de búsquedas todos los días, y el 15 por ciento de esas consultas son algo que no habíamos visto antes, por lo que hemos creado formas de devolver los resultados de las consultas que no podemos anticipar.

Cuando gente como tú o como yo venimos a Search (forma en la que se refieren al buscador de Google), no siempre estamos seguros de cuál es la mejor manera de formular una consulta. Puede ser que no sepamos las palabras correctas a usar, o cómo deletrear algo, porque muchas veces, venimos a la Search con el fin aprender – no necesariamente contamos con el conocimiento para empezar. 

En su esencia, En Search todo se trata de entender el lenguaje. Nuestro trabajo consiste en averiguar qué es lo que está buscando y sacar a la superficie información útil de la web, sin importar cómo deletrea o combina las palabras en su consulta. Aunque a lo largo de los años hemos seguido mejorando nuestras capacidades de comprensión del idioma, a veces todavía no lo hacemos bien, especialmente en el caso de consultas complejas o conversaciones. De hecho, esa es una de las razones por las que la gente a menudo usa «keyword-ese» (esto se refiere al conjunto de palabras que se colocan en el buscador, por ejemplo: “camisetas Joker Batman baratas niños Amazon”), escribiendo cadenas de palabras que creen que entenderemos, pero que en realidad no son la forma en que naturalmente haría una pregunta. 

Con los últimos avances de nuestro equipo de investigación en la ciencia de la comprensión del lenguaje, hecho posible gracias al machine learning, estamos mejorando significativamente la forma en que entendemos las consultas, lo que representa el mayor avance en los últimos cinco años y uno de los mayores avances en la historia de la búsqueda

Aplicación de los modelos BERT a Search

El año pasado, introdujimos una técnica basada en una red neuronal de código abierto para la formación previa al procesamiento del lenguaje natural (PNL) llamada Bidirectional Encoder Representations from Transformers (Representaciones de encoders bidireccionales de transformadores), o como la llamamos: BERT, para abreviar. Esta tecnología permite a cualquiera entrenar su propio sistema de respuesta de preguntas de última generación. 

Este avance fue el resultado de la investigación de Google sobre los transformadores: modelos que procesan las palabras en relación con todas las demás palabras de una frase, en lugar de una por una en orden. Por lo tanto, los modelos BERT pueden considerar el contexto completo de una palabra observando las palabras que aparecen antes y después de ella, especialmente útiles para comprender la intención que hay detrás de las consultas de búsqueda.

Pero no son sólo los avances en software los que pueden hacer esto posible: también necesitábamos nuevo hardware. Algunos de los modelos que podemos construir con BERT son tan complejos que sobrepasan los límites de lo que podemos hacer usando hardware tradicional, así que por primera vez estamos usando los últimos TPUs en nube para servir los resultados de búsqueda y obtener más información relevante rápidamente. 

Cómo resolver tus dudas

Son muchos detalles técnicos, pero ¿qué significa todo esto para ti? Bueno, al aplicar los modelos BERT tanto al ranking como a los fragmentos destacados en la búsqueda, podemos hacer un trabajo mucho mejor ayudándole a encontrar información útil. De hecho, cuando se trata de resultados de ranking (aquí se refieren a los resultados de búsqueda o SERPS), BERT ayudará a Search a entender mejor una de cada 10 búsquedas en los EE.UU. en inglés, y con el tiempo llevaremos esto a más idiomas y localidades.

Particularmente para consultas más largas, más conversacionales, o búsquedas donde las preposiciones como «for» y «to» importan mucho al significado, Search será capaz de entender el contexto de las palabras en tu consulta. Ahora la búsqueda es mas comoda y mucho más natural para ti.

Para lanzar estas mejoras, hicimos muchas pruebas para asegurarnos de que los cambios son realmente más útiles. Estos son algunos de los ejemplos que mostraron nuestro proceso de evaluación y que demuestran la capacidad del BERT para comprender la intención que hay detrás de su búsqueda.

Aquí está la búsqueda de «2019 brazil traveler to usa need a visa.» La palabra «a» y su relación con las otras palabras de la consulta son particularmente importantes para comprender el significado. Se trata de un brasileño que viaja a Estados Unidos, y no al revés. Anteriormente, nuestros algoritmos no entendían la importancia de esta conexión, y devolvimos resultados sobre ciudadanos estadounidenses que viajaban a Brasil. Con BERT, Search es capaz de captar este matiz y saber que la palabra muy común «to» realmente importa mucho aquí, y podemos proporcionar un resultado mucho más relevante para esta consulta.

¿Qué es Google BERT? Procesamiento del lenguaje natural 1

Veamos otra pregunta: «las esteticistas se paran mucho en el trabajo.» Anteriormente, nuestros sistemas adoptaban un enfoque de coincidencia de palabras clave, haciendo coincidir el término «stand-alone» en el resultado con la palabra «stand» en la consulta. Pero ese no es el uso correcto de la palabra «stand» en el contexto. Nuestros modelos BERT, por otro lado, entienden que el «stand» está relacionado con el concepto de las demandas físicas de un trabajo, y muestra una respuesta más útil.

¿Qué es Google BERT? Procesamiento del lenguaje natural 2

(En el anuncio hay un carrusel de imágenes) con otros ejemplos en los que el BERT nos ha ayudado a captar los sutiles matices del lenguaje que los ordenadores no entienden del todo como lo hacen los humanos.

Mejora de Search en más idiomas

También estamos aplicando el BERT para hacer que Search sea mejor para las personas de todo el mundo. Una característica poderosa de estos sistemas es que pueden tomar los aprendizajes de un idioma y aplicarlos a otros. Así que podemos tomar modelos que aprenden de las mejoras en inglés (un idioma en el que existe la gran mayoría del contenido web) y aplicarlos a otros idiomas. Esto nos ayuda a obtener mejores resultados relevantes en los muchos idiomas en los que se ofrece la búsqueda.

Para los fragmentos destacados, estamos utilizando un modelo BERT para mejorar los fragmentos destacados en las dos docenas de países en los que esta función está disponible, y observamos mejoras significativas en idiomas como el coreano, el hindi y el portugués.

Search no es un problema resuelto

No importa lo que estés buscando, o el idioma que hables, esperamos que seas capaz de dejar ir algunas de tus palabras claves y buscar de una manera que se sienta natural para ti. Pero aún así, de vez en cuando, seguirás sin saber qué hacer con Google. Incluso con BERT, no siempre lo hacemos bien. Si buscas «qué estado está al sur de Nebraska», la mejor suposición de BERT es una comunidad llamada «South Nebraska». Si tienes la sensación de que no es en Kansas, tienes razón.

La comprensión del idioma sigue siendo un desafío constante, y nos mantiene motivados para seguir mejorando Search. Siempre estamos mejorando y trabajando para encontrar el significado y la información más útil para cada consulta que nos envías.

Los enlaces que verás a continuación amplían la información sobre BERT, si quieres conocer más puedes visitarlas.

Reciente