Google ontwikkeld een nieuwe module voor Tensorflow Privacy, een toolkit van Google. Hiermee zijn AI-modellen op basis van machine learning, beter op privacy te testen. 

Door: Floris Hulshoff Pol | Techzine

Privacy van AI-modellen is voor ontwikkelaars nog altijd een flinke bron van discussie, stelt de techgigant. Er bestaan nog geen duidelijke richtlijnen over hoe precies een volledig private AI-model kan worden ontwikkeld. AI-modellen staan hierdoor eigenlijk nog steeds ‘open’ voor datalekken bij het trainen van datasets en vormen dus een gevaar voor de privacy van deze data.

Toevoegen van ‘ruis’
Google heeft hiervoor al een tool, TensorFlow Privacy, op basis van ‘differential privacy’ ontwikkeld die ervoor moet zorgen dat het lekken van data tijdens het trainen van AI-modellen zoveel mogelijk wordt tegengegaan. Met het toevoegen van ‘ruis’ aan het trainen van datamodellen worden voorbeelden van training data ‘verborgen’. Het wordt dus moeilijk uit deze ‘brei’ de te trainen data ‘af te luisteren’.

Nadeel van deze beveiligingstechnologie is eigenlijk dat het is ontwikkeld voor veronderstelde worst-case scenario’s en bovendien de accuratesse van AI-modellen sterk kan beïnvloeden. Bovendien is inmiddels ook geconstateerd dat hackers ook veel eenvoudiger aanvallen op AI trainingssets kunnen uitvoeren.

Membership interference attacks
Zogenoemde AI classifiers voor machine learning-modellen kunnen ook worden onderschept met ‘membership inference attacks’. Membership interference-aanvallen zijn eenvoudig uit te voeren, zijn goedkoop en kunnen met weinig kennis van AI-modellen worden uitgevoerd.

Met dit soort aanvallen kunnen hackers voorspellen wanneer een stuk data tijdens een training is gebruikt. Wanneer zij deze voorspellingen accuraat uitvoeren, dan slagen zij er waarschijnlijk in om data te identificeren die in een training set is gebruikt. Dit vormt dan natuurlijk weer een inbreuk op de privacy van deze data.

Module met kwetsbaarheidsscore
De nu uitgebrachte module voor TensorFlow Privacy moet er nu voor gaan zorgen dat ontwikkelaars hun trainings sets voor AI-modellen op basis van machine learning beter kunnen testen of zij kwetsbaarheden bevatten en dus mogelijk privacygevoelige data lekken.  De module gebruikt hiervoor alleen de output van de AI-modellen, in plaats van de weegfactoren en de input data. Met de test wordt een kwestbaarheidsscore gerealiseerd die bepaalt of het bewuste AI-model data lekt uit de training set.

De resultaten moeten ontwikkelaars helpen betere private AI-modellen te bouwen, beter te zoeken naar de juiste architectuur van de modellen en bepaalde regeltechnieken als early stopping, dropout, weight decay en input augmentation te gebruiken. Of om meer data te kunnen verzamelen.

Betere architecturen en privacy-by-design
Uiteindelijk moet dit, aldus Google, weer leiden tot betere architecturen op basis van privacy-by-design en betere keuzes rondom het verwerken van data. In de nabije toekomst wil de techgigant de nieuwe module voor TensorFlow Privacy door ontwikkelen om membership interference attacks ook te voorkomen buiten de training sets.

Lees het artikel in zijn volledigheid hier