BERT es una red neuronal de código abierto entrenada por Google para procesar de forma más efectiva el lenguaje natural, es decir, la manera en que nos expresamos normalmente para realizar búsquedas, por ejemplo, ¿dónde está París?
Tras quince años de trabajo intenso, Google, el gigante de las búsquedas, ha aprendido qué es lo que busca la gente pero sobre todo, cómo. La conclusión a la que ha llegado es que aproximadamente el 15 % de las búsquedas que se realizan a diario nunca se han hecho antes, por lo cual, aún estamos lejos de haberlo preguntado todo.
Por ello, mediante BERT, el sistema de búsqueda cambiará como lo ha ido haciendo en estos últimos cinco años con la adaptación del sistema RankBrain. Esto hará que el propio Google descubrirá qué es lo que estás buscando y te lo irá mostrando en la web anticipándose a tus consultas.
La idea que ha procurado Google es que Bert procese las palabras en relación al resto de letras que puedan aparecer en una oración y por tanto, dentro del contexto averigüe qué viene antes y qué después. Este sistema se utilizará en inglés de momento ya que está siendo probado en Estados Unidos pero pronto se extenderá a otros idiomas, entre ellos el coreano, hindi, chino, portugués y esperamos que castellano.