Optische sensoren hebben altijd moeite gehad met het herkennen van transparante objecten. Bij het zien van bijvoorbeeld glazen of flessen, raken de sensoren in verwarring. Het maakt hierbij niet uit of het om camera’s of een technologie als Lidar (Light Detection And Ranging).

Google heeft naar eigen zeggen nu een oplossing bedacht met ClearGrasp AI. Het probleem waar de meeste algoritmes mee te maken krijgen ten opzichte van transparante objecten is dat de sensoren die de omgeving analyseren er van uit gaan dat alle oppervlaktes mat zijn. Dit houdt in dat het licht gelijkmatig in alle richtingen zou worden verspreid, maar ze worden ook gereflecteerd. Hierdoor lijkt de data die de sensoren lezen ongeldig te zijn.

Een team van Google onderzoekers heeft samengewerkt met de Columbia University en Synthesis AI, een data generation platform voor computer vision. Uit deze samenwerking is ClearGrasp gekomen.

ClearGrasp is een combinatie van algoritmes die nauwkeurige 3D-gegevens van transparante objecten kan inschatten. Dit doet het op basis van RGB beelden. Daardoor kan het algoritme werken met input van elke standaard RGB camera, waarbij AI wordt gebruikt om de diepte van transparante objecten na te bootsen.

Cleargrasp bestaat in totaal uit drie machine learning-algoritmes welke gecombineerd worden. Het bestaat uit een netwerk dat de normale status van oppervlakken kan inschatten, een netwerk die de zogenaamde “occlusional boundaries” die de afwijkingen in diepte bij een oppervlak inschat, en een netwerk dat de transparante objecten maskeert.

Door dit masker verdwijnen de pixels die bij de transparante objecten hoort, en kan op die manier de juiste diepte worden ingevuld. Zo wordt een foutieve diepte die door een verward algoritme wordt gemeten vermeden. De voorspelde occlusion boundaries helpen daarbij om de scheiding tussen verschillende objecten te herkennen.