Volgens het artikel in de Wallstreet journal evalueert de tool alle in eigen huis en door externe leveranciers ontwikkelde technologie, maar is deze niet bindend voor AI die in de particuliere sector wordt gebruikt. De Canadese Chief Information Officer, Alex Benay, zei dat het doel van dit programma is om te voorkomen dat een ‘black box’ beslissingen neemt over immigratie, grenzen en sociale diensten. De AI-beoordelingstool wordt momenteel getest in 10 agentschappen, transport, immigratie, inkomsten, justitie, natuurlijke hulpbronnen en natuurlijke verdediging om potentiële KI-risico’s te classificeren voor individuen, gemeenschappen en het ecosysteem. Alle risicoresultaten vereisen dat de overheidsinstantie haar op AI gebaseerde beslissingen toelicht. Resultaten met een hoog risico worden onderworpen aan externe beoordelingen door collega’s en kunnen gepaard gaan met menselijk ingrijpen om AI-beslissingen te negeren. –