Найти в Дзене

Оптические процессоры для AI: новые шаги энергоэффективного инференса

Открывайте, как оптические процессоры улучшают энергоэффективность AI и ускоряют инференс для новых задач — кратко и по делу — Марина Погодина Этого я боялась последние полгода — железо для ИИ снова переворачивают стол. Neurophos поднимает 110 млн долларов на оптические чипы для инференса, которые жрут в разы меньше энергии и делают математику светом, а не электричеством. И если вы думаете, что это где-то далеко в Силиконовой долине, то у меня для вас плохие новости: это прямая атака на привычную архитектуру ваших AI-проектов. Суть: команда из мира метаматериалов (тех самых, из которых когда-то делали «плащи-невидимки») идет в прикладной ад — в AI-инференс. Они собираются выпускать микрооптические процессоры, где нейросетевые операции выполняет не кремний, а специальный композит, по которому гоняют свет. «Это означает, что энергозатраты на инференс падают на порядки» — примерно так они это продают инвесторам. Для США это история про дата-центры, счета за электричество и охлаждение, а д
   Как оптические процессоры меняют подход к быстрому и экономичному инференсу | Автор: Марина Погодина Марина Погодина
Как оптические процессоры меняют подход к быстрому и экономичному инференсу | Автор: Марина Погодина Марина Погодина

Открывайте, как оптические процессоры улучшают энергоэффективность AI и ускоряют инференс для новых задач — кратко и по делу — Марина Погодина

Этого я боялась последние полгода — железо для ИИ снова переворачивают стол. Neurophos поднимает 110 млн долларов на оптические чипы для инференса, которые жрут в разы меньше энергии и делают математику светом, а не электричеством. И если вы думаете, что это где-то далеко в Силиконовой долине, то у меня для вас плохие новости: это прямая атака на привычную архитектуру ваших AI-проектов.

Суть: команда из мира метаматериалов (тех самых, из которых когда-то делали «плащи-невидимки») идет в прикладной ад — в AI-инференс. Они собираются выпускать микрооптические процессоры, где нейросетевые операции выполняет не кремний, а специальный композит, по которому гоняют свет. «Это означает, что энергозатраты на инференс падают на порядки» — примерно так они это продают инвесторам. Для США это история про дата-центры, счета за электричество и охлаждение, а для нас, в России, это про то, что привычная логика «поставим пару GPU и как-нибудь вывезем» начинает умереть.

Честно? Я в шоке от суммы. 110 млн на железку, которая еще даже не в продакшне, значит только одно — мир очень устал от прожорливых GPU. Все кричат «прорыв», а я вижу три красных флага: сложность производства, интеграция в реальный софт и боль с сертификацией. Я в два часа ночи сидела на кухне, перечитывала описание их архитектуры и думала о вашем сервере в комнате с кондиционером за 25 тысяч — там это всё будет смотреться, как динозавр на парковке у Tesla.

Для российских автоматизаторов это сильно не про хайп, а про смещение точки входа. Сегодня вы думаете, какую модель воткнуть в OpenVINO или на что пересадить инференс в частном контуре. Завтра к вам придут заказчики с вопросом: «А можно, чтобы у нас локальный ИИ не грелся, не шумел и не ел пол-офиса по электричеству?» Для российских команд это практический смысл — энергоэффективный локальный AI без облака. Но подвох в том, что к моменту, когда это железо доедет до нас официально, западный рынок уже обкатает стэк, а вы будете снова допиливать напильником и писать костыли к драйверам, как это было с некоторыми GPU и китайскими платами.

Моя позиция простая: если вы строите долгую AI-инфраструктуру (банки, крупный ритейл, индустрия, госсектор) — уже сегодня надо закладывать в архитектуру «нестандартное железо». Не обязательно оптику, но абстракцию уровня: модели должны уметь жить не только на классических GPU. Иначе через три года окажетесь с монолитной зоопарком, который невозможно пересадить на новое железо, хоть оно трижды волшебное. Это не баг, нет, скорее фича, которую никто не просил — но инвесторы оплачивают именно её.

Кому подождать: всем, кто пилит MVP, продукты на коленке, сервисы «давайте прикрутим нейросеточку». Вам это пока не надо, вы упрётесь в 152-ФЗ и отсутствие нормальных поставок раньше, чем в тепловой пакет. Кому срочно думать: дата-центрам, тем, кто делает частные AI-платформы для компаний, интеграторам enterprise-уровня. Если у вас в стратегии есть слова «свой LLM» и «офлайн-инференс в филиалах», закладывать оптические и иные альтернативные процессоры в дорожную карту — больно, но придётся. Потому что «Для российских команд это означает, что старый подход к железу станет тормозом».

Меня в этой истории пугает не технология, а скорость — пока вы обсуждаете, куда переложить очередной OpenAI-запрос, мир тащит инференс ближе к железу и делает его дешевле. Если не разобраться сейчас, через квартал будет поздно передумывать архитектуру: вы уже наобещаете клиентам то, что физически невыгодно запускать на старом парке. Вопрос один — вы правда готовы строить ИИ-сервисы, не заглядывая под капот будущего железа?

Читать оригинал новости →

Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.