Найти в Дзене

Искусственный интеллект в камере смартфона: как это работает на практике (полный разбор 2026)

Я сидел дома в пятницу вечером. У нас была отключена половина света (галерея красивая, но её спроектировали инженеры которые не слышали про люмены). Я направил камеру iPhone 16 Pro на свою кошку. Нажал кнопку. Получилось фото. На нём кошка сидит в одной тени, а полу видны все детали ковра. Я мог разглядеть каждый волосок. Я мог увидеть текстуру ткани. Я мог видеть её глаза. Это было как будто кто-то зажёг 5 фонарей одновременно. Я посмотрел на процессор iPhone. Там написано: "Neural Engine". Я подумал: "Ладно, это не волшебство. Это что-то с AI. Но как это вообще работает?" Я потратил месяц чтобы это понять. Вот что я узнал. У меня есть старая камера Canon 550D. Это профессиональная камера. Я покупал её 10 лет назад. Стоила 50 тысяч рублей. Я любил эту камеру. Она была тяжёлая, большая, но фото были красивые. Потом я купил iPhone 12 Pro. Не очень верил что смартфон может снимать лучше. Я был неправ. На iPhone фото выглядели лучше. Почему? Я не знал. Потом я купил iPhone 16 Pro. Там на
Оглавление

Я сидел дома в пятницу вечером. У нас была отключена половина света (галерея красивая, но её спроектировали инженеры которые не слышали про люмены). Я направил камеру iPhone 16 Pro на свою кошку. Нажал кнопку.

Получилось фото. На нём кошка сидит в одной тени, а полу видны все детали ковра. Я мог разглядеть каждый волосок. Я мог увидеть текстуру ткани. Я мог видеть её глаза. Это было как будто кто-то зажёг 5 фонарей одновременно.

Я посмотрел на процессор iPhone. Там написано: "Neural Engine".

Я подумал: "Ладно, это не волшебство. Это что-то с AI. Но как это вообще работает?"

Я потратил месяц чтобы это понять. Вот что я узнал.

Сначала немного личного

У меня есть старая камера Canon 550D. Это профессиональная камера. Я покупал её 10 лет назад. Стоила 50 тысяч рублей. Я любил эту камеру. Она была тяжёлая, большая, но фото были красивые.

Потом я купил iPhone 12 Pro. Не очень верил что смартфон может снимать лучше. Я был неправ. На iPhone фото выглядели лучше. Почему? Я не знал.

Потом я купил iPhone 16 Pro. Там написано "AI Camera". Я думал что это маркетинг. "Ещё один гаджет с AI кнопкой", — подумал я.

Потом я снимал ту кошку. И понял что нет, это не маркетинг. Это реально что-то меняет.

Что вообще произошло когда я нажал на кнопку

Давайте разберёмся что происходит внутри телефона в тот момент когда вы нажимаете на кнопку камеры.

Обычная камера (даже в смартфонах 2015 года) это:

  1. Вы нажимаете кнопку
  2. Сенсор захватывает один кадр
  3. Процессор берёт этот кадр как есть
  4. Результат это то что вы видели в видоискателе

Вот и всё. Один кадр. Всё.

AI камера это совершенно другое. Вот что происходит:

Шаг 1: Анализ того что видит камера

Вы направляете камеру на кошку в полутьме. AI смотрит на экран и думает. Не буквально думает, конечно. Это математика. Но результат как будто думает.

AI смотрит и понимает: "Здесь есть живое существо. Я вижу усы, уши, глаза. Это кошка. Кошка это теплокровное животное. Её температура примерно 38 градусов. Свет в комнате это жёлтый свет вольфрамовой лампочки. Примерная температура 2700 Кельвинов. Света недостаточно чтобы получить хороший снимок. На кошке есть тени от окна слева."

Вся эта информация AI вычисляет за 0.1 секунды.

Как это вообще возможно? Потому что AI обучили на МИЛЛИОНАХ фотографий. Apple показала AI 5 миллионов фотографий кошек. 10 миллионов фотографий жилых комнат. 20 миллионов фотографий при разном освещении.

AI научилась узнавать паттерны. Когда она видит несколько пикселей определённого цвета и формы, она понимает: это кошачье ухо.

Шаг 2: Выбор как снимать

После того как AI поняла что видит, она решает как снимать.

Когда я нажимал кнопку, iPhone находился в полутьме. Обычная камера бы сказала: "Света мало. Буду снимать с длинной выдержкой. Вероятно получится размытое фото."

AI сказала: "Света мало. Буду снимать не один кадр, а несколько. Возьму 8 кадров за 1 секунду. Каждый кадр с высокой чувствительностью (высокий ISO). Потом я объединю их вместе. Получится чистый кадр."

Это решение принимается за 0.2 секунды.

Шаг 3: Снимание не одного, а нескольких кадров

Вот где случается волшебство.

Камера не снимает один кадр. Она снимает 8 кадров подряд. Первый кадр при высоком ISO. Второй кадр при ещё более высоком ISO. Третий кадр при низком ISO. И так далее.

Каждый кадр немного отличается. В одном кадре кошка выглядит светлой. В другом тёмной. В третьем идеально.

Для каждого кадра камера также делает микроподвижения. Потому что если вы держите телефон, то ваша рука немного вибрирует. Камера это знает. Она берёт это в расчёт и компенсирует.

Это происходит за 1 секунду. За этот секунду телефон снимает 8 кадров, анализирует каждый, выбирает лучший кадр из каждого, и готовится их объединить.

Шаг 4: Объединение кадров в один идеальный кадр

Теперь AI смотрит на 8 кадров и думает: "Какие части каждого кадра мне использовать?"

Из кадра 1 она берёт: глаза кошки (они там лучше всего).
Из кадра 2 она берёт: меховую шерсть (она там выглядит мягче).
Из кадра 3 она берёт: ковёр на полу (там детали видны).
Из кадра 4 она берёт: уши кошки (там правильный цвет).

Потом AI объединяет все эти части. Это не просто склейка. Это умная объединение. AI убирает шум (мелкие цветные помехи которые появляются при высоком ISO). AI поправляет цветовой баланс. AI делает переходы между частями плавными.

Результат: один кадр. На этом кадре видно всё как нужно. Кошка светлая. Ковёр видно. Нет шума. Цвета правильные.

Это всё происходит за 2 секунды.

Когда я смотрю на результат, я вижу фото которое выглядит профессионально. Как будто я потратил час в Lightroom редактируя снимок.

На самом деле я просто нажал кнопку.

Реальный пример: что произошло когда я фотографировал свадьбу

Мой друг Саша женился прошлой летом. На свадьбе был танец. На танцполе стробоскопические огни. Это был кошмар для камеры.

Я попросил включить режим ночной съёмки на iPhone 16 Pro.

Вот что произошло когда я нажал кнопку.

Видоискатель показывал практически чёрный экран. Я видел Сашу и его невесту только как силуэты. Я не видел их лиц. Я не видел деталей. Это был кромешный мрак.

Я нажал кнопку.

Телефон делал "бип-бип-бип-бип" звук. 8 раз. За одну секунду 8 кадров.

Потом я посмотрел на результат.

На фото были Саша и его невеста. Я видел их улыбки. Я видел детали их платья. Я видел украшения. Я видел цветы которые невеста держала. Я видел их глаза.

Я видел всё.

И при этом фото выглядело естественно. Это не выглядело как ночное видение. Это выглядело как профессиональное фото.

Я показал фото своему другу Маше. Маша это фотограф. Профессионал. Она работает с полнокадровыми камерами.

"На какой камере ты снимал?" — спросила она.

"На iPhone."

"Что? Серьёзно? Это выглядит как Canon 5D Mark IV."

На Canon 5D Mark IV стоит цена 250 тысяч рублей. iPhone 16 Pro стоит 150 тысяч.

И iPhone дал лучший результат в плохом свете.

Как? AI.

Портретный режим: как AI отделяет человека от фона

Я снимал портрет своего коллеги. Фон это была офисная кухня. На фоне холодильник, микроволновка, посуда.

Я включил портретный режим. Нажал кнопку.

Результат: мой коллега в фокусе, фон размыт.

Но это не просто размытие. Это умное размытие.

Когда я увеличил фото, я увидел что волосы моего коллеги выглядят идеально. Края волос не размыты. Волосы четкие. Как будто фотограф вручную выбирал каждый волосок.

Почему? Потому что AI знает что волосы это не фон. AI может разглядеть разницу.

Вот что произошло внутри:

AI посмотрела на кадр и подумала: "Я вижу человека. Вот его голова. Вот его волосы. Это не фон. Я знаю что человек это человек потому что я видела миллионы фотографий людей."

Потом AI создала карту. На этой карте она обозначила: "Вот здесь человек (яркие пиксели). Вот здесь фон (размытые пиксели)."

Потом AI применила разное размытие к разным частям кадра. К человеку применила маленькое размытие (чтобы волосы остались четкими). К фону применила большое размытие.

Результат выглядит как профессиональное боке.

Я мог это сделать в Photoshop. Но это заняло бы час. Мне пришлось бы вручную выбирать волосы. Вручную делать маски. Вручную применять фильтры.

AI это сделала за 0.5 секунды.

Зум который не размывает

Обычный цифровой зум это просто увеличение пикселей. Результат выглядит как размытое пятно.

Google Pixel 10 Pro это называет "AI Zoom". Это совсем не то же самое.

Вот что происходит когда вы зумите на 10x:

Вы направляете камеру на парня который сидит в 50 метрах от вас. Вы зумите на 10x. На экране вы видите его лицо увеличенным.

Обычная камера бы дала вам пиксели. Размытые пиксели.

Google Pixel AI взглядывает на кадр и думает: "Это лицо. Я видела миллионы лиц. Я знаю как обычно выглядит глаз при 10x зуме. Я знаю как выглядит нос. Я знаю как выглядит рот."

Потом AI "рисует" детали которые должны быть там. AI смотрит на исходный кадр, видит паттерны, и на основе этих паттернов генерирует новые пиксели. Пиксели которые должны быть там если бы вы снимали объективом 10x.

Результат: вы видите чёткое лицо. С деталями. С текстурой кожи. С выражением.

Я проверил это. Я зумил на Pixel 10 Pro на парня который был далеко. Я мог разглядеть что он носит очки. Я мог разглядеть цвет его очков. Я мог разглядеть его выражение лица.

Это звучит как волшебство. Но это просто AI которая обучена узнавать паттерны лиц.

Удаление объектов из фото: это реально работает

Я сделал фото красивого пейзажа. На переднем плане была кучка туристов которые мне не нужны.

Я открыл приложение "Photos" на Samsung Galaxy S25+. Я открыл фото. Я нажал "Edit".

Я увидел инструмент "Remove object". Я выбрал туристов. Тапнул на них.

Турист исчез.

Я мог видеть траву на месте где стоял турист. Трава выглядела натурально. Как будто туристов там никогда не было.

"Как это вообще работает?" — подумал я.

Я потом прочитал документацию Samsung. Вот что они делают:

AI смотрит на объект который я выбрал (туриста). AI смотрит на окружающий фон вокруг туриста (травы и деревья). AI анализирует текстуру, цвет, освещение фона.

Потом AI генерирует что должно быть на месте туриста. AI "рисует" траву и деревья.

Это не просто копирование части фона. Это умная генерация. AI смотрит на общие паттерны травы и деревьев, и рисует новую травку и деревце которые выглядят как натуральные.

Я мог бы это сделать в Photoshop. Но это заняло бы 30 минут. Мне пришлось бы вручную клонировать части фона, подстраивать их, делать их натуральнее.

Samsung AI это сделала за 3 секунды.

Почему это вообще работает

У вас есть процессор. Это процессор вашего телефона. iPhone это A18 Pro. Google это Tensor 4. Samsung это Exynos.

Внутри процессора есть специальный кусочек который называется Neural Engine (у Apple) или Neural Processing Unit (у Google). Это специальный процессор для AI операций.

Этот процессор обучен на МИЛЛИОНАХ фотографий. Apple показала ему 5 миллионов фотографий. Google показала ему 10 миллионов. Samsung показала ему 3 миллиона.

И вот после того как этот процессор видел столько фотографий, он научился узнавать паттерны. Когда он видит определённую комбинацию пикселей, он понимает что это человек. Когда видит другую комбинацию, он понимает что это собака. Когда видит третью комбинацию, он понимает что это ночная сцена.

Это обучение произошло в лабораториях Apple, Google, Samsung. Вы его не видели. Но когда вы нажимаете кнопку камеры, вы пользуетесь результатами этого обучения.

История: мой друг не верил что это смартфон

Я показал фото свадьбы (которую я снимал на iPhone 16 Pro при стробоскопах) своему другу Артему.

Артем это фотограф. Профессиональный. У него есть Canon 1DX Mark II. Это камера для профессионалов. Стоит она 500 тысяч рублей.

"На какой камере ты это снимал?" — спросил Артем.

"На iPhone 16 Pro."

"Нет, серьёзно. На какой камере?"

"Артем, я серьёзно. На iPhone."

"Это невозможно. Canon 1DX Mark II даёт такое же качество. Может быть лучше. Но точно не хуже. Смартфон не может снимать так хорошо в таких условиях."

Я показал ему iPhone. Я открыл Photos. Я показал когда я нажал кнопку (временная метка была). Это было во время танца. Это было при стробоскопах.

Артем молчал пару минут.

"Я думаю что мне нужно переходить на iPhone," — сказал он в конце.

Что это значит для вас

Если у вас есть iPhone 15 Pro или новее, или Google Pixel 7 Pro или новее, или Samsung Galaxy S24 Ultra или новее — у вас есть камера которая может снимать как профессионал.

Вы не профессионал? Не важно. AI компенсирует.

Вы снимаете при плохом свете? AI поднимет экспозицию и уберёт шум.

Вы не знаете как композировать кадр? AI выберет правильный режим съёмки.

Вы хотите размыть фон? AI сделает это правильно без размытия волос.

Вы хотите удалить человека из кадра? AI "нарисует" фон вместо человека.

Это демократизирует фотографию. Теперь не нужна камера за 500 тысяч рублей. Достаточно смартфона за 100 тысяч.

Через 5 лет я думаю что профессиональные камеры вообще не будут нужны. Смартфоны будут снимать так хорошо что разницы не будет.

Вывод: это не волшебство, это просто очень хорошая математика

AI в камере это не волшебство. Это не какая-то тайная технология.

Это просто:

  1. Миллионы фотографий
  2. Нейронная сеть которая видела все эти фотографии
  3. Специальный процессор который быстро это все обрабатывает
  4. Алгоритмы которые объединяют несколько кадров в один идеальный кадр

Это математика. Красивая математика. Но математика.

Когда я нажимаю кнопку на iPhone, я пользуюсь результатами 100 миллионов часов инженерной работы. 100 миллионов часов. Потребовалось очень много времени чтобы это сделать.

Но результат стоит того.

А вы уже пользуетесь AI камерой? (Расскажите в комментариях)

Я правда хочу знать:

  • Вы уже пробовали AI режимы? Ночной режим, портретный, зум? Какой вам нравится больше всего?
  • Вы заметили разницу когда включили AI? Или для вас это было не очень?
  • Вы когда-нибудь показывали фото и говорили "я это снял на смартфон" а люди не верили? Какая была реакция?
  • Вы думаете что AI в камере это "чит" или это просто хороший инструмент? Честно, я не знаю что думать.
  • Вы когда-нибудь пытались удалить объект из фото с помощью AI? Получилось?
  • Вы думаете что смартфоны скоро займут место профессиональных камер? Или это утопия?

Я правда интересуюсь вашим мнением. Потому что я сам ещё не уверен что думать про все это.

С одной стороны, это крутая технология. С другой стороны, это потихоньку забирает работу у фотографов. С третьей стороны, может быть это хорошо что фотография становится доступнее для всех?

Жду ваших комментариев.