Een groep wetenschappers van MIT en IBM hebben in het Watson AI Lab een methode gevonden waarmee ze AI voor video recognition sneller kunnen trainen. Huidige modellen zijn groot en onhandig in gebruik, en encoderen het tijdsverloop in een reeks beelden. Dit zorgt voor computer-intensieve modellen.
De wetenschappers van het MIT-IBM-team hebben een andere aanpak gekozen. Zij laten het model werken via het zogenoemde temporal shift-module. Zo lijkt het voor het model alsof er tijd passeert, maar geeft dit niet expliciet weer.
Met deze deep-learning methode kan het team video recognition-AI van IBM en MIT drie maal sneller trainen dan met huidige methodes. Doordat het tijdsbestek en de complete rekenkracht minder is, heeft deze methode als bijkomstig voordeel een minder grote CO2-voetafdruk.
Ook zal hiermee AI eerder kunnen worden toegepast op mobiele apparaten. En dat is ook het doel van het team, zo vertelt MIT Assistant Professor Song Han.
“ Ons doel is om AI toegankelijk te maken voor iedereen met een low-power apparaat. Om dit te doen moeten we efficiënte AI-modellen ontwerpen die minder energie gebruiken en soepel kunnen draaien op apparaten waar AI in beweging is.”
Video herkenning komt zo binnen bereik van meer mensen en instellingen. Zo kunnen medische instituten als ziekenhuizen AI applicaties lokaal draaien, in plaats van deze uit de cloud te benaderen. Daardoor blijft de data, in theorie, veiliger.
Ook ziet het team toepassingen voor Facebook en YouTube, die geweldadige of terroristische beelden makkelijker kunnen herkennen, waarna er adequaat actie kan worden ondernomen.
Voor meer informatie, zie het artikel op Engadget.