Facebook Reality Labs, het onderdeel van het bedrijf dat onderzoek doet naar AR en VR, heeft een methode ontwikkeld om ontzettend realistische VR avatars te maken. Avatars die gebaseerd zijn op echte gezichten.
De avatars kunnen in realtime worden geanimeerd met relatief lichte hardware. Slechts drie camera’s in een headset zijn voldoende. De mond en ogen worden in het bijzonder geanimeerd, waarbij zelfs subtiele gezichtsuitdrukkingen bewaard blijven.
De methode die Facebook heeft ontwikkeld leunt sterk op machine learning, juist om die genuanceerde uitdrukkingen na te bootsen in een virtuele omgeving.
De onderzoekers hebben hun rapport openbaar gemaakt, die gedetailleerd ingaat op de methodologie achter het systeem. Het komt er op neer dat er een “training headset” gedragen moet worden die de gezichtsuitdrukkingen van een persoon vastleggen. Deze headset heeft negen camera’s waardoor gedetailleerde gezichtsuitdrukkingen kunnen worden opgeslagen. Daarna kan de normale, of “tracking” headset gebruikt worden, met drie camera’s.
Omdat de headset nu is “getraind” in de nuances van een specifiek gezicht, kan het deze nuances in realtime toekennen in een virtuele ruimte.
Het zal nog even duren voordat deze technologie kan worden gebruikt voor mainstream toepassingen. Door de afhankelijkheid van een gezichtsscan zou iedereen gebruiker twee headsets nodig hebben. Eén om het programma te trainen en één om het programma te gebruiken. Dit legt de drempel erg hoog, maar de onderzoekers zijn ongetwijfeld bezig om de techniek verder te verfijnen.