Компания Amazon перенесла вычислительные мощности, отвечающие за обработку некоторых функций голосового помощника Alexa, с видеопроцессоров NVIDIA на нейропроцессоры собственной разработки, сообщил австралийский портал ИТ-новостей ITNews.
О разработке Amazon чипов AWS Inferentia стало известно в 2018 году. Теперь они начинают выполнять задачу, для которой и проектировались. На серверы, оборудованные ими, перемещена обработка таких функций Alexa, как распознавание речи и лиц, а также перевод текста в речь.
AWS Inferentia — это нейропроцессоры, то есть процессоры, оптимизированные для работы с алгоритмами глубокого обучения. В отличие от серверных видеокарт NVIDIA, на которых ранее работали данные функции, для задач глубокого обучения Inferentia эффективнее.
Согласно заявлению Amazon, внедрение собственных нейропроцессоров позволило уменьшить время обработки запросов на 25% при снижении затрат на 30%.