Найти в Дзене

Что действительно полезного я теперь умею делать с помощью ИИ

Идея сделать что-то осмысленное по своей основной профессии с помощью ИИ возникла у меня давно. Все вокруг уже демонстрировали магию нейросетей, а я всё думала: «Ну хорошо, а что полезного можно сделать в реальной рабочей задаче?» И вот попалась небольшая работа - надо было сделать каталог диванов. Заказчик сфотографировал их прямо на производстве — никаких красивых интерьеров, фотостудий и стилистов. Перевозить мебель на фото локацию — дорого и долго и муторно Была просьба либо нарендерить (3d max) интерьеров, либо сделать условный коллаж в фотошопе. Задача мне была сформулирована примерно так: «Сделайте красиво, как каталог. Ну, как-нибудь. И желательно подешевле». Окей. Был диван, снятый в цехе, и нужно было сделать так, будто он стоит в стильной гостиной. Путь можно было выбрать классический — 3D Max, Photoshop, свет, материалы. Но хотелось что-то пробовать уже. Подумав и погуглив решила пробовать. Попытка №1 Я установила Stable Diffusion — тяжёлая артиллерия, которую активно хва

Идея сделать что-то осмысленное по своей основной профессии с помощью ИИ возникла у меня давно. Все вокруг уже демонстрировали магию нейросетей, а я всё думала: «Ну хорошо, а что полезного можно сделать в реальной рабочей задаче?»

И вот попалась небольшая работа - надо было сделать каталог диванов. Заказчик сфотографировал их прямо на производстве — никаких красивых интерьеров, фотостудий и стилистов.

Перевозить мебель на фото локацию — дорого и долго и муторно

Исходник
Исходник

Была просьба либо нарендерить (3d max) интерьеров, либо сделать условный коллаж в фотошопе. Задача мне была сформулирована примерно так: «Сделайте красиво, как каталог. Ну, как-нибудь. И желательно подешевле».

Окей. Был диван, снятый в цехе, и нужно было сделать так, будто он стоит в стильной гостиной. Путь можно было выбрать классический — 3D Max, Photoshop, свет, материалы. Но хотелось что-то пробовать уже.

Подумав и погуглив решила пробовать.

Попытка №1

Я установила Stable Diffusion — тяжёлая артиллерия, которую активно хвалили в статьях, роликах и пабликах. (Сменила видеокарту и очистила под установочные файлы огого сколько места).

«Это универсальный миротворец творческих задач. Если не он — то кто?»

Я загрузила фото дивана, разделила его в фотошопе на маски, написала первое промпт-описание и попросила нейросеть дорисовать всё вокруг.

Что получилось. В целом результат можно было оценить на 3+ из 5.

Все равно видно что это та же локация.
Все равно видно что это та же локация.

На первый взгляд — даже неплохо

Но при приближении начались приключения:

Типичные проблемы Stable Diffusion:

Увеличение шума (фантазии) дает какие-то нереалные объекты, но ее (фантазии) все еще мало чтобы нарисовать принципиально другую комнату
Увеличение шума (фантазии) дает какие-то нереалные объекты, но ее (фантазии) все еще мало чтобы нарисовать принципиально другую комнату

- предметы выглядели игрушечными и неубедительными — книги, цветы, картины будто из другого мира;

- на границе маски ИИ постоянно пытался «помочь» и дорисовывал новые элементы: лишние подушки, ножки, складки и т.п.;

- добавить предмет перед диваном, например кофейный столик, оказалось почти невозможно - это хорошо видно по размытости угла столика. На картинке в этом месте у маски была граница контура;

контролировать уровень «фантазии» было больно:

0.29 — скучно и похоже на место съёмки;

0.30 — уже вообще ни на что не похоже;

И главное — цена попыток.

Чтобы добиться приемлемого результата, понадобилась:

1. мощная видеокарта,

2. тонны дискового места,

3. море времени...просто море...

Вывод на тот момент: работает, но слишком тяжело и неуправляемо.

Ситуация продвинулась когда я стала писать промты с помощью текстовых моделей. Улучшение было мгновенным и качество повысилось на порядок.

формулировки стали понятнее для модели,

задачи стали конкретнее,

и качество выросло прямо заметно.

Промтинг, как стало понятно, — это прямо отдельная профессия.

Не сколько «картинка», сколько «руководство к действию для машины».

Попытка №2

знакомство с Nano Banana (Google)

Когда я впервые попробовала Nano Banana, всё встало на свои места.

- ничего не нужно устанавливать,

- не нужно искать и возиться с моделями,

- не имеет значения мощность видеокарты.

Просто загружаешь референс и пишешь человеческий текст:

«Сделай современный интерьер вокруг этого дивана».

К картинке просто нет вопросов. Идеально по цвету, композиции и ЗАТРАЧЕННОМУ ВРЕМЕНИ
К картинке просто нет вопросов. Идеально по цвету, композиции и ЗАТРАЧЕННОМУ ВРЕМЕНИ
с одной итеррации
с одной итеррации
-6
-7

И Nano Banana понимает с первого раза.

А результат — стабильный, аккуратный и реалистичный.

Я делала рендеры через Leonardo, и бесплатных 150 токенов мне на тест хватило с головой (Ну ладно, ладно..для каталога пришлось завести аккаунты всей семье, включая кота)

Когда стало понятно, что это работает и задача была решена я попробовала вот еще что:

В Nano Banana я загрузила фасад (взяв у коллеги) и попросила:

Исходник
Исходник

«Сгенерировать вариант в стиле северный модерн».

Для эскиза - просто прекрасно
Для эскиза - просто прекрасно

И результат снова оказался очень достойным — быстрым, убедительным и аккуратным.

Эта история дала мне новый профессиональный инструмент:

быстрый, понятный, дешевый.

И самое главное — результат теперь зависит не от видеокарты, а от умения объяснить задачу машине.

Навык, о котором я раньше не думала — теперь реально помогает в работе.