Wetenschappers van de University of Massachussetts Amherst en Stanford claimen een nieuwe algoritmisch kader te hebben ontwikkeld. Hiermee wordt gegarandeerd dat kunstmatige intelligentie bepaalde grenzen niet zal overschrijden.

Dit kader maakt gebruikt van zogenaamde Seldonian algoritmes. Deze manier van machine learning is anders ingestoken ten opzichte van huidige algoritmes in de machine learning industrie. De Seldonian algoritmes zijn afgeleid van Asimov’s “Laws of Robotics”, van de boekenreeks “Foundation”.

Deze drie AI wetten zouden ervoor moeten zorgen dat een robot mensen niet verwondt, opdrachten opvolgt die niet in strijd zijn met de eerste wet en dat de robot aan zelfpreservatie doet.

De Seldonian algoritmes zijn een uitbreiding op deze wetten, waarbij er een garantie is dat robots door middel van machine learning geen onwenselijk gedrag vertonen. Hierin zijn de huidige machine learning algoritmes ontoereikend. Denk bijvoorbeeld aan AI met raciale voorkeuren.

Met Seldonian algoritmes zou dit probleem volgens de wetenschappers voorkomen moeten worden. Om het kader te demonstreren hebben de wetenschappers een AI systeem gecreëerd voor het toedienen van insuline bij diabetici en het voorspellen van het Grade Point Average (GPA) van studenten.

In het geval van het toedienen van insuline kreeg het algoritme de opdracht om ervoor te zorgen dat de patiënten niet crashten, terwijl het systeem zelf moest leren wat de optimale dosering was. In het geval van het voorspellen van het GPA moest de AI ervoor zorgen dat het op een manier werd gedaan zonder dat er geslachtsdiscriminatie zou voorkomen. Door de AI deze opdrachten mee te geven bleken de Seldonian algoritmes effectief te zijn.

Het belangrijkste verschil tussen ML- en Seldonian algoritmes is waar de verantwoording voor het gedrag van kunstmatige intelligentie komt te liggen. Bij standaard ML-algoritmes ligt deze verantwoording bij de eindgebruikers, met alle onbedoelde (of bedoelde) gevolgen van dien. Bij Seldonian algoritmes ligt deze verantwoordelijkheid bij de ontwikkelaars.

Met deze nieuwe soort algoritmes kunnen bestaande applicaties nauwkeuriger worden gemaakt. Het is de hoop van de betrokken wetenschappers dat deze algoritmes in de toekomst voor meer dan alleen het vervangen van ML algoritmes kunnen worden ingezet. Zo zou het mogelijk zijn om nieuwe applicaties te ontwikkelen, die met het gebruik van ML algoritmes te riskant zouden zijn om uit te voeren.