Bij gebruik van AI is het vaak nog maar de vraag hoe het algoritme, of AI, tot een beslissing is gekomen. Dit is één van de veel gehoorde kritiekpunten van de technologie. Explainable AI, een nieuwe tool van Google, hoopt daar verandering in te brengen.

Explainable AI zal aan gebruikers moeten uitleggen hoe en waarom een model een bepaald algoritme gebruikt en tot conclusies komt. De tool kijkt precies hoeveel ieder deel van een dataset heeft bijgedragen aan het eindresultaat van het algoritme.

Iedere factor krijgt een gewogen score om aan te geven hoeveel invloed dit heeft op de conclusie van het model.  Gebruikers kunnen dit opvragen om te ontdekken waarom er tot een bepaalde conclusie is gekomen.

Deze tool is te gebruiken bij bijvoorbeeld de algoritme voor het bepalen van kredietscores, aldus Thomas Kurian, CEO van Google Cloud. “Als je een AI gebruikt om een kredietscore te bepalen, wil je kunnen begrijpen waarom het algoritme een specifiek model afwees en een ander accepteerde.”

De tool is per direct te gebruiken voor machine learning-modellen die gehost worden bij zowel AutoML Tables en het Cloud Platform Prediction platform van Google. Ook is het te combineren met de What-If Tool die Google vorig jaar presenteerde.