Het machinelearning systeem van Facebook simuleert de stem van Bill Gates
MelNet kan ook Stephen Hawking, George Takei en Jane Goodall nabootsen, wat logisch is, aangezien het is getraind op audioboeken en een 452-uurs dataset van TED-talks.
In tegenstelling tot WaveNet en andere programma’s die zijn getraind met audiogolfvormen, vertrouwt MelNet op het spectrogram, waarmee het meer subtiele consistenties kan vastleggen die bekend staan als ‘structuur op hoog niveau’ in de stem van een persoon. Dat zou kunnen resulteren in AI assistenten met een hogere kwaliteit.