Techgigant Amazon geeft aan dat het voor zijn Amazon Elastic Inference-dienst nu ook Pytorch ondersteunt. De open source machine learning bibliotheek zou ervoor kunnen zorgen dat klanten flink kunnen besparen op hun uitgaven aan het maken van voorspellingen, met behulp van deep learning modellen.
In essentie helpt de toevoeging van Pytorch-ondersteuning eindgebruikers in de zin dat ze nu de juiste rekenkracht kunnen toewijzen aan het uitvoeren van de processen voor het maken van voorspellingen met dit getrainde AI deep learning model. Volgens AWS zal dit ertoe leiden dat ze dan flink op hun compute-kosten kunnen besparen.
Pytorch is een door Facebook ontwikkeld open source machine learning bibliotheek voor toepassingen als computer vision en Natural Language Processing. De modellen zijn populair onder developers omdat ze “dynamic computional graphs” gebruiken. Hiermee kunnen ze op simpele wijze de deep learning modellen ontwikkelen met behulp van Python.
Er zijn specifieke PyTorch-bibliotheken beschikbaar in onder andere Amazon SageMaker, AWS Deep Learning AMI’s en AWS Deep Learning Containers. Ontwikklaars kunnen daardoor binnen deze omgevingen snel PyTorch modellen in productie brengen, zonder veel codewijzigingen.
Volgens Amazon zorgt het uitvoeren van deze processen voor een kostenbesparing van 90 procent van de totale kosten qua computing, wanneer het gaat om het draaien van deep learning workloads met PyTorch. Het selecteren van de juiste computing instance voor deze berekeningen kan een moeilijk proces zijn. Ieder deep learning model heeft zijn eigen eisen met betrekking tot het gebruik van de GPU, CPU en geheugenbronnen.
Met PyTorch verzekert Amazon Elastic Inference zich ervan dat haar gebruikers de juiste modellen kiezen voor de juiste hardware.