Google heeft natural language processing (NLP) toegepast om de algoritmes van zijn zoekmachine te verbeteren. De techniek gaat door het leven onder de naam BERT, wat staat voor “Bidirectional Encoder Representations from Transformers”. BERT is een techniek waarmee iedereen zijn eigen cutting-edge systeem kan bouwen voor het beantwoorden van vragen.

Deze techniek is bijzonder omdat het transformers gebruikt. Dit zijn kunstmatige intelligentie-modellen die woorden met andere woorden kunnen interpreteren en de relatie hiertussen kan bepalen. Met andere woorden kan het model de context waarin woorden gebruikt worden begrijpen.

Volgens Google is NLP van belang zodat de intentie achter een zoekopdracht begrepen kan worden. Dit blijkt in de praktijk erg lastig en er worden daarin nog altijd fouten gemaakt. Zeker bij complexe vragen.

BERT heeft wel nieuwe hardware nodig. Google geeft aan: “Sommige modellen die we met BERT kunnen bouwen zijn zo complex dat ze tegen de grenzen aankomen van wat we met traditionele hardware kunnen doen”. Daarom zet Google Cloud TPU’s in, die speciaal door het bedrijf zijn ontwikkeld voor kunstmatige intelligentie. NLP maakt hier onderdeel van uit.

De Cloud TPU’s bieden meer rekenkracht voor neurale netwerken. Deze hardware wordt samengevoegd in zogenaamde “pods”, die op hun beurt verbinding maken met het netwerk.

In het geheel moet deze technologie er voor zorgen dat Google Search beter begrijpt wat een gebruiker bedoelt bij een zoekopdracht. Daarmee moet het relevantere zoekresultaten laten zien. De update wordt op dit moment uitgerold.