Amazon вслед за Apple переходит на собственные чипы
Компания будет использовать их на собственных серверах, которые отвечают за работу Alexa.
Компания Amazon сообщила, что отказывается от чипов NVIDIA в пользу собственного решения AWS Inferentia. Такое решение принято с оглядкой на эффективность, поскольку графические чипы меньше подходят для задач Amazon, нежели собственные чипы компании. Инстансы Amazon EC2 Inf1 на их базе на 30 % увеличивают пропускную способность и на 45 % снижают затраты в отличие от решений NVIDIA.
Зачем это нужно?
С голосовым ассистентом Alexa в наших странах знакомы немногие. Однако, например, в США голосовой помощник довольно популярен. Работает это так. У вас есть колонка с «Алексой»:
Вы делаете запрос к «Алексе». Например, где в округе можно поесть вкусную пиццу. Вместо того, чтобы заниматься поиском информации непосредственно в этой колонке, взваливая всё на плечи слабого железа, запрос уходит в Amazon. Там уже звук обрабатывается и его переводят в текст, понятный компьютеру. В этом тексте вычленяется главное, чтобы было понятно, что вы ищете именно пиццерию, а не рецепт «Маргариты». После этого делается поиск ответа на ваш запрос, вслед за которым формируется аудиофайл, который и будет озвучен специально для вас.
Это лишь один из примеров, где нужны логические выводы. Именно для подобных штук и предназначены решения вроде AWS Inferentia. Тут требуются большие мощности, что могут дать собственные разработки Amazon. Так, один инстанс EC2 Inf1 объединяет в себе до 16 чипов Inferentia с общей производительностью до 128 триллионов операций в секунду. Неудивительно, что Amazon решила отказаться от NVIDIA с учётом того, сколько компания начнёт экономить после.