В мире вычислительной техники и искусственного интеллекта (ИИ) мы привыкли к электронным схемам и GPU, которые обрабатывают потоки бит. Но что, если взять и пропустить сигналы напрямую в виде фотонов, «сразу» выполняя необходимые вычисления, не переводя свет в электрические импульсы? Оказывается, это не только возможно, но и уже демонстрирует впечатляющие результаты — вплоть до полноценной нейросети на фотонной платформе. С такой историей можно познакомиться в статье Getting an all-optical AI to handle non-linear math на Ars Technica. Ниже я поделюсь своим видением того, что там происходит и какие перспективы у «оптического» будущего искусственного интеллекта.
🔍 Идея: пропустить вычисления без «перевода» в электричество
Обучая нейросеть, мы, по сути, выполняем массивные матричные умножения. В классической цифровой электронике это означает:
👀 «Поймали» фотоны в камере → преобразовали сигнал в электронную форму → обработали на процессоре → снова, если нужно, вывели результат (например, на экран).
В оптическом подходе ключевая задумка — не конвертировать фотоны сразу в электрические сигналы, а вычислять прямо со светом. Исследователи из MIT во главе с Саумилом Бандиопадхьяем (Saumil Bandyopadhyay) собрали чип, который способен обрабатывать матричные операции линейной алгебры, пропуская лучи света через специально сконструированные фотонные элементы.
🏗️ Технические подробности: Mach-Zehnder и «вытягивание» сигнала
Как же построить оптический аналог нейрона?
🔬 Mach-Zehnder-интерферометры работают как «программируемые делители луча», смешивая световые пучки. Если подать напряжение на управляющие электроды, можно регулировать, как именно волны интерферируют, то есть управлять коэффициентами линейных операций. В масштабах матриц это выглядит как сетка (решётка) Mach-Zehnder-элементов, каждый из которых выполняет часть умножения.
🔬 Нелинейность — главный вызов для оптических систем, ведь нейросети живут не только за счёт матриц, но и за счёт нелинейных функций (relu, sigmoid и т. п.). В статье описывается инновационный приём: небольшая часть света (подсматриваемая фотодиодом) превращается в электрический сигнал, который затем модулирует оставшийся фотонный поток. Фактически, это оптическая реализация пороговой функции без «полного» выхода в цифру.
🤔 Зачем нужна нелинейность?
В нейронных сетях всё строится на том, что линейные слои + нелинейности = способ моделировать сложные зависимости. Если делать чисто линейную математику, можно получить аналог обычной регрессии, что сильно ограничивает возможности. Но теперь у команды MIT получилось в одном фотонном чипе воплотить:
🔑 Линейные операции в «полностью оптическом» виде.
🔑 Нелинейные пороги за счёт локальных измерений и обратного влияния.
Результат — вся нейросеть (с несколькими слоями) запускается внутри оптической схемы без постоянного похода в цифровую электронику.
🔎 Масштаб и сравнение с гигантами вроде ChatGPT
Чип от MIT на данный момент реализовал сеть всего на 132 параметра — это несравнимо с миллиардами (а то и триллионами) параметров в крупных языковых моделях (вроде GPT-4). Но:
🔍 Ультранизкая задержка. Они добились обработки всего за 410 пикосекунд! Это значит, что за одну «тик» обычного процессора на 4 ГГц (а это 250 пикосекунд) чип успевает выполнить всю свою сеть, да ещё и с запасом.
🔍 Целевое применение. Исследователи подчёркивают, что первоочередная задача — супербыстрая реакция (например, для систем вождения и мгновенной классификации сигнала от лидаров). То есть речь о компактных моделях, но работающих реактивно.
🚘 Возможное будущее: лидары и «аналого-оптические» датчики
Представьте себе автомобильную систему, которая:
🚘 «Видит» лидарный луч напрямую как фотонные сигналы,
🚘 Сразу в оптике проводит анализ облака точек (нет никакого «снимать маску», оцифровывать и отправлять дальше),
🚘 Принимает решение за доли наносекунды.
Именно такая сверхбыстрая реакция может дать огромные преимущества по безопасности. Похожим образом можно перестроить компьютерное зрение: «камера» напрямую «вычисляет», а не просто «запоминает картинку в мегапикселях».
🌱 Что стоит на пути масштабирования?
Автор исследования признаёт, что портировать «триллион параметров» на оптический чип в ближайшее время не выйдет. Причин несколько:
💡 Плотность размещения: несмотря на то что элементы Mach-Zehnder очень компактны, им всё равно требуется физическое место на кристалле.
💡 Сложность разведения: каждая «линия» света требует точной настройки фаз.
💡 Нелинейность: каждый блок пороговой обработки подразумевает фотодиод + электронную схему.
Тем не менее архитектура создавалась на базе стандартных CMOS-процессов, что даёт надежду на дальнейший рост. Также можно собирать «мультимодульные» системы из нескольких чипов, подобно тому, как в электронике уже есть кластерные решения.
🤓 Личный взгляд: революция в «аналоговых» вычислениях?
Интересно, что идея «оптику в нейросети» не нова: ещё лет десять назад писали про возможные оптические ускорители. Но именно сочетание модульных интерферометров и локальной нелинейности даёт сейчас прорыв в демонстрации полноценной нейронной сети на чипе.
Моё мнение, что этот подход может стать основой для новых рынков:
👓 VR/AR-гарнитуры, где микроскопическая задержка крайне важна (особенно для трекинга и распознавания движений).
⚙️ Индустриальные роботы, чтобы мгновенно замечать дефекты в изделиях на конвейере.
🚘 Автомобильные системы, как упомянуто выше, реагирующие быстрее человеческого глаза.
Все они могут выиграть от «фотонной» скорости, пусть и с меньшими по размеру моделями.
🔗 Ссылки
- Оригинальная статья на Ars Technica: Getting an all-optical AI to handle non-linear math
🏁 Итог: новое слово в аппаратном ИИ
«Оптические нейросети» пока что играют на поле небольших моделей — им ещё предстоит долгий путь к «ChatGPT для фотонов». Но даже в таком «камерном» исполнении это уже гигантский шаг вперёд: показать, что можно убрать преобразование свет-электроны-свет и обрабатывать сигнал напрямую. Это означает колоссальный выигрыш в скорости и в энергопотреблении.
Возможно, в ближайшие годы мы увидим появление готовых «мини-ИИ-чипов», где свет используется не только для передачи данных, но и для самих вычислений. И тогда мы окончательно вступим в эпоху, когда «аналоговый» и «цифровой» миры перестанут быть жёстко разделены: ведь, как оказалось, фотоны умеют считать нелинейные функции ничуть не хуже электронов.