Microsoft создает процессор для искусственного интеллекта |
18.06.2018 11:24

В СМИ появилась информация о том, что Microsoft ведет разработку собственных процессоров для обработки алгоритмов искусственного интеллекта (ИИ) в публичном облаке американской корпорации. Таким образом, софтверный гигант собирается поддержать тенденцию, при которой все больше технологических компаний создают собственные аппаратные решения для ИИ-задач.
Телеканал CNBC обнаружил три вакансии разработчиков чипов в подразделении Microsoft Azure Cloud, которые были размещены еще в марте 2018 года. В апреле компания начала искать еще одного инженера по разработке ПО и оборудования, которому предстоит проектирование и оптимизация технологий ускорения ИИ-систем.
Как отмечает издание CRN, разработчики искусственного интеллекта все чаще используют графические процессоры для обработки интенсивных вычислительных задач, таких как машинное обучение. Компании Amazon, Microsoft и Google активно задействуют GPU от Nvidia. Однако эти вендоры также делают ставку на специализированные процессоры, предназначенные для выполнения ИИ-задач нового поколения.
Так, в рамках конференции для разработчиков Google I/O 2018 было представлено третье поколение тензорных процессоров Tensor Processing Unit (TPU), предназначенных для машинного обучения. Новое решение, как сообщили в компании Google, в восемь раз производительнее по сравнению с предшественником.
TPU 3.0 поддерживает обработку вычислительных нагрузок производительностью 100 петафлопс. У версии TPU 2.0, представленной в 2017 году, показатель составлял 180 терафлопс. Каждая плата подключается к слоту PCI Express 3.0 x16.
По слухам, Amazon также работает над специализированными микросхемами, которые позволят "умным" колонкам компании обрабатывать больше данных в самом устройстве, чем в облаке.
Традиционные производители ИТ-оборудования также разрабатывают новое поколение чипов и серверов для искусственного интеллекта. В декабре 2017 года IBM представила такие серверы - AС922 Power Systems. Они оснащены шинами PCI Express, NVlink 2.0 от Nvidia и интерфейсом OpenCAPI, благодаря чему достигается высокая пропускная способность и ускоряется обучение ИИ-систем.
Кроме того, Intel сделала несколько шагов в поддержании тенденции, связанной с вычислительными нагрузками в сфере искусственного интеллекта. Год назад Intel объявила о формировании специального подразделения Artificial Intelligence Products Group, которое занялось исследованиями и разработками в области ИИ.
Источник: DailyComm
Телеканал CNBC обнаружил три вакансии разработчиков чипов в подразделении Microsoft Azure Cloud, которые были размещены еще в марте 2018 года. В апреле компания начала искать еще одного инженера по разработке ПО и оборудования, которому предстоит проектирование и оптимизация технологий ускорения ИИ-систем.
Как отмечает издание CRN, разработчики искусственного интеллекта все чаще используют графические процессоры для обработки интенсивных вычислительных задач, таких как машинное обучение. Компании Amazon, Microsoft и Google активно задействуют GPU от Nvidia. Однако эти вендоры также делают ставку на специализированные процессоры, предназначенные для выполнения ИИ-задач нового поколения.
Так, в рамках конференции для разработчиков Google I/O 2018 было представлено третье поколение тензорных процессоров Tensor Processing Unit (TPU), предназначенных для машинного обучения. Новое решение, как сообщили в компании Google, в восемь раз производительнее по сравнению с предшественником.
TPU 3.0 поддерживает обработку вычислительных нагрузок производительностью 100 петафлопс. У версии TPU 2.0, представленной в 2017 году, показатель составлял 180 терафлопс. Каждая плата подключается к слоту PCI Express 3.0 x16.
По слухам, Amazon также работает над специализированными микросхемами, которые позволят "умным" колонкам компании обрабатывать больше данных в самом устройстве, чем в облаке.
Традиционные производители ИТ-оборудования также разрабатывают новое поколение чипов и серверов для искусственного интеллекта. В декабре 2017 года IBM представила такие серверы - AС922 Power Systems. Они оснащены шинами PCI Express, NVlink 2.0 от Nvidia и интерфейсом OpenCAPI, благодаря чему достигается высокая пропускная способность и ускоряется обучение ИИ-систем.
Кроме того, Intel сделала несколько шагов в поддержании тенденции, связанной с вычислительными нагрузками в сфере искусственного интеллекта. Год назад Intel объявила о формировании специального подразделения Artificial Intelligence Products Group, которое занялось исследованиями и разработками в области ИИ.
Источник: DailyComm
-
15.09.2024
-
20.06.2024
-
25.04.2024
-
22.04.2024
-
15.04.2024
-
15.02.2024
-
01.02.2024
-
24.01.2024
-
17.01.2024
-
19.12.2023
-
15.12.2023
-
14.12.2023
-
14.12.2023
-
24.11.2023
-
21.11.2023