Найти тему

Как IT гиганты Microsoft, AMD и другие реагируют на растущий спрос ИИ?

Оглавление

По мере роста спроса на ИИ поставщики облачных услуг, такие как Microsoft, Google и AWS, а также поставщики больших языковых моделей (LLM), такие как OpenAI, как сообщается, рассматривают возможность разработки собственных чипов для ИИ.

Open AI looking to make its own AI chips
OpenAI стремится к созданию собственных чипов искусственного интеллекта
(пишет www.foxnews.com)

Предположения о том, что некоторые из этих компаний - в частности, OpenAI и Microsoft - предпринимают усилия по разработке собственных чипов для использования в целях работы с ИИ в связи с нехваткой чипов, доминировали в заголовках новостей в течение последних нескольких недель.

В то время как OpenAI, по слухам, собирается приобрести компанию для реализации своих планов по разработке чипов, Microsoft, как сообщается, сотрудничает с AMD для создания собственного чипа под кодовым названием Athena.

Microsoft is reported to be working with AMD to develop AI-capable chips
Сообщается, что Microsoft сотрудничает с AMD для разработки чипов с поддержкой искусственного интеллекта
(пишет www.networkworld.com)

Компании Google и AWS уже разработали собственные чипы для ИИ-нагрузок в виде блоков Tensor Processing Units (TPU), а также чипов Trainium и Inferentia от AWS.

Но какие факторы подталкивают эти компании к созданию собственных чипов? Ответ, по мнению аналитиков и экспертов, кроется в стоимости обработки ИИ-запросов и эффективности имеющихся на сегодняшний день чипов, в основном грифических процессоров (GPU). В настоящее время на рынке чипов для ИИ доминируют графические процессоры A100 и H100 компании Nvidia.

A100 Nvidia анонсирует видеокарту с тензорными ядрами
A100 Nvidia анонсирует видеокарту с тензорными ядрами

"GPU, вероятно, не самый эффективный процессор для ИИ-нагрузок, и собственные чипы могут помочь им в этом", - говорит Нина Тернер, менеджер по исследованиям IDC.


По словам Дэна Хатчерсона, вице-председателя TechInsights, GPU - это устройства общего назначения, которые, как оказалось, очень эффективны при инверсии матриц, что является основной математической составляющей ИИ.

Разработка собственных чипов - дело непростое

Некоторые аналитики также сравнивают переход на разработку собственного чипа со стратегией компании Apple по производству микросхем для своих устройств. Гленн О'Доннелл, директор по исследованиям компании Forrester, считает, что подобно тому, как Apple перешла от процессоров общего назначения к собственному, чтобы повысить производительность своих устройств, поставщики услуг ИИ также стремятся специализировать архитектуру своих чипов.

"Несмотря на огромную популярность графических процессоров Nvidia, они тоже являются устройствами общего назначения. Если вы действительно хотите сделать что-то вызывающее, вам нужен чип, оптимизированный под конкретную функцию, например, обработку изображений или специализированный ИИ", - пояснил О'Доннелл, добавив, что в таких ситуациях выходом могут стать заказные чипы.


Однако, по мнению экспертов, разработка заказных чипов может оказаться непростым делом для любой компании.

Нехватка чипов может оказаться не главной проблемой для OpenAI или Microsoft

В то время как OpenAI, как сообщается, собирается приобрести стартап для создания собственного чипа, поддерживающего рабочие нагрузки ИИ, эксперты считают, что этот план может быть связан не с нехваткой чипов, а с поддержкой рабочих нагрузок вывода для LLM, поскольку Microsoft продолжает добавлять функции ИИ в приложения и подписывать клиентов на свои сервисы ИИ.

"Очевидно, что у них есть какие-то требования, которые никто не удовлетворяет, и я полагаю, что это может быть часть для обработки выводов, которую дешевле купить и дешевле эксплуатировать, чем дорогую GPU или даже топовые процессоры Sapphire Rapids, и при этом они не будут зависеть от AWS или Google", - считает главный аналитик Omdia Александр Харроуэлл.
Intel представила Sapphire Rapids
Intel представила Sapphire Rapids

Он добавил, что основывает свое мнение на высказываниях генерального директора компании Сэма Альтмана о том, что GPT-4 вряд ли будет масштабироваться дальше и скорее потребует расширения. Масштабирование LLM требует больших вычислительных мощностей по сравнению с выводом модели.

По словам Харроуэлла, для поддержки рабочих нагрузок, связанных с выводами, потенциальными объектами приобретения могут стать такие компании, как Groq, Esperanto Technologies, Tenstorrent и Neureality, а также SambaNova, если OpenAI захочет отказаться от графических процессоров Nvidia и уйти от облачного подхода.

Nvidia says it will make it's brand of generative AI available through Oracle Cloud, Microsoft Azure, Google Cloud Platform, and other cloud providers.
Nvidia заявляет, что ее ИИ будет доступен через Oracle Cloud, Microsoft Azure, Google Cloud Platform и других облачных провайдеров.
(пишет www.networkworld.com)