De Canadese overheid heeft een algoritmische beoordelingstool ontwikkeld om toezicht te houden op het gebruik van AI-technologie bij overheidsinstanties.

Volgens het artikel in de Wallstreet journal  evalueert de tool alle in eigen huis en door externe leveranciers ontwikkelde technologie, maar is deze niet bindend voor AI die in de particuliere sector wordt gebruikt. De Canadese Chief Information Officer, Alex Benay, zei dat het doel van dit programma is om te voorkomen dat een ‘black box’  beslissingen neemt over immigratie, grenzen en sociale diensten. De AI-beoordelingstool wordt momenteel getest in 10 agentschappen, transport, immigratie, inkomsten, justitie, natuurlijke hulpbronnen en natuurlijke verdediging om potentiële KI-risico’s te classificeren voor individuen, gemeenschappen en het ecosysteem. Alle risicoresultaten vereisen dat de overheidsinstantie haar op AI gebaseerde beslissingen toelicht. Resultaten met een hoog risico worden onderworpen aan externe beoordelingen door collega’s en kunnen gepaard gaan met menselijk ingrijpen om AI-beslissingen te negeren. –