Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

Когда фотоника встречается с нейросетями: как «оптический ИИ» учится решать нелинейные задачи

В мире вычислительной техники и искусственного интеллекта (ИИ) мы привыкли к электронным схемам и GPU, которые обрабатывают потоки бит. Но что, если взять и пропустить сигналы напрямую в виде фотонов, «сразу» выполняя необходимые вычисления, не переводя свет в электрические импульсы? Оказывается, это не только возможно, но и уже демонстрирует впечатляющие результаты — вплоть до полноценной нейросети на фотонной платформе. С такой историей можно познакомиться в статье Getting an all-optical AI to handle non-linear math на Ars Technica. Ниже я поделюсь своим видением того, что там происходит и какие перспективы у «оптического» будущего искусственного интеллекта. Обучая нейросеть, мы, по сути, выполняем массивные матричные умножения. В классической цифровой электронике это означает:
👀 «Поймали» фотоны в камере → преобразовали сигнал в электронную форму → обработали на процессоре → снова, если нужно, вывели результат (например, на экран). В оптическом подходе ключевая задумка — не конверт
Оглавление

В мире вычислительной техники и искусственного интеллекта (ИИ) мы привыкли к электронным схемам и GPU, которые обрабатывают потоки бит. Но что, если взять и пропустить сигналы напрямую в виде фотонов, «сразу» выполняя необходимые вычисления, не переводя свет в электрические импульсы? Оказывается, это не только возможно, но и уже демонстрирует впечатляющие результаты — вплоть до полноценной нейросети на фотонной платформе. С такой историей можно познакомиться в статье Getting an all-optical AI to handle non-linear math на Ars Technica. Ниже я поделюсь своим видением того, что там происходит и какие перспективы у «оптического» будущего искусственного интеллекта.

🔍 Идея: пропустить вычисления без «перевода» в электричество

Обучая нейросеть, мы, по сути, выполняем массивные матричные умножения. В классической цифровой электронике это означает:
👀 «Поймали» фотоны в камере → преобразовали сигнал в электронную форму → обработали на процессоре → снова, если нужно, вывели результат (например, на экран).

В оптическом подходе ключевая задумка — не конвертировать фотоны сразу в электрические сигналы, а вычислять прямо со светом. Исследователи из MIT во главе с Саумилом Бандиопадхьяем (Saumil Bandyopadhyay) собрали чип, который способен обрабатывать матричные операции линейной алгебры, пропуская лучи света через специально сконструированные фотонные элементы.

https://arstechnica.com/
https://arstechnica.com/

🏗️ Технические подробности: Mach-Zehnder и «вытягивание» сигнала

Как же построить оптический аналог нейрона?
🔬
Mach-Zehnder-интерферометры работают как «программируемые делители луча», смешивая световые пучки. Если подать напряжение на управляющие электроды, можно регулировать, как именно волны интерферируют, то есть управлять коэффициентами линейных операций. В масштабах матриц это выглядит как сетка (решётка) Mach-Zehnder-элементов, каждый из которых выполняет часть умножения.

🔬 Нелинейность — главный вызов для оптических систем, ведь нейросети живут не только за счёт матриц, но и за счёт нелинейных функций (relu, sigmoid и т. п.). В статье описывается инновационный приём: небольшая часть света (подсматриваемая фотодиодом) превращается в электрический сигнал, который затем модулирует оставшийся фотонный поток. Фактически, это оптическая реализация пороговой функции без «полного» выхода в цифру.

🤔 Зачем нужна нелинейность?

В нейронных сетях всё строится на том, что линейные слои + нелинейности = способ моделировать сложные зависимости. Если делать чисто линейную математику, можно получить аналог обычной регрессии, что сильно ограничивает возможности. Но теперь у команды MIT получилось в одном фотонном чипе воплотить:
🔑
Линейные операции в «полностью оптическом» виде.
🔑
Нелинейные пороги за счёт локальных измерений и обратного влияния.

Результат — вся нейросеть (с несколькими слоями) запускается внутри оптической схемы без постоянного похода в цифровую электронику.

🔎 Масштаб и сравнение с гигантами вроде ChatGPT

Чип от MIT на данный момент реализовал сеть всего на 132 параметра — это несравнимо с миллиардами (а то и триллионами) параметров в крупных языковых моделях (вроде GPT-4). Но:
🔍
Ультранизкая задержка. Они добились обработки всего за 410 пикосекунд! Это значит, что за одну «тик» обычного процессора на 4 ГГц (а это 250 пикосекунд) чип успевает выполнить всю свою сеть, да ещё и с запасом.
🔍
Целевое применение. Исследователи подчёркивают, что первоочередная задача — супербыстрая реакция (например, для систем вождения и мгновенной классификации сигнала от лидаров). То есть речь о компактных моделях, но работающих реактивно.

🚘 Возможное будущее: лидары и «аналого-оптические» датчики

Представьте себе автомобильную систему, которая:
🚘 «Видит» лидарный луч напрямую как фотонные сигналы,
🚘 Сразу в оптике проводит анализ облака точек (нет никакого «снимать маску», оцифровывать и отправлять дальше),
🚘 Принимает решение за доли наносекунды.

Именно такая сверхбыстрая реакция может дать огромные преимущества по безопасности. Похожим образом можно перестроить компьютерное зрение: «камера» напрямую «вычисляет», а не просто «запоминает картинку в мегапикселях».

🌱 Что стоит на пути масштабирования?

Автор исследования признаёт, что портировать «триллион параметров» на оптический чип в ближайшее время не выйдет. Причин несколько:
💡
Плотность размещения: несмотря на то что элементы Mach-Zehnder очень компактны, им всё равно требуется физическое место на кристалле.
💡
Сложность разведения: каждая «линия» света требует точной настройки фаз.
💡
Нелинейность: каждый блок пороговой обработки подразумевает фотодиод + электронную схему.

Тем не менее архитектура создавалась на базе стандартных CMOS-процессов, что даёт надежду на дальнейший рост. Также можно собирать «мультимодульные» системы из нескольких чипов, подобно тому, как в электронике уже есть кластерные решения.

🤓 Личный взгляд: революция в «аналоговых» вычислениях?

Интересно, что идея «оптику в нейросети» не нова: ещё лет десять назад писали про возможные оптические ускорители. Но именно сочетание модульных интерферометров и локальной нелинейности даёт сейчас прорыв в демонстрации полноценной нейронной сети на чипе.

Моё мнение, что этот подход может стать основой для новых рынков:
👓
VR/AR-гарнитуры, где микроскопическая задержка крайне важна (особенно для трекинга и распознавания движений).
⚙️
Индустриальные роботы, чтобы мгновенно замечать дефекты в изделиях на конвейере.
🚘
Автомобильные системы, как упомянуто выше, реагирующие быстрее человеческого глаза.

Все они могут выиграть от «фотонной» скорости, пусть и с меньшими по размеру моделями.

🔗 Ссылки

🏁 Итог: новое слово в аппаратном ИИ

«Оптические нейросети» пока что играют на поле небольших моделей — им ещё предстоит долгий путь к «ChatGPT для фотонов». Но даже в таком «камерном» исполнении это уже гигантский шаг вперёд: показать, что можно убрать преобразование свет-электроны-свет и обрабатывать сигнал напрямую. Это означает колоссальный выигрыш в скорости и в энергопотреблении.

Возможно, в ближайшие годы мы увидим появление готовых «мини-ИИ-чипов», где свет используется не только для передачи данных, но и для самих вычислений. И тогда мы окончательно вступим в эпоху, когда «аналоговый» и «цифровой» миры перестанут быть жёстко разделены: ведь, как оказалось, фотоны умеют считать нелинейные функции ничуть не хуже электронов.