Найти в Дзене
Пятничный киноман: Teenage Mutant Ninja Turtles (2003)
Сегодня почему-то вспомнил именно этот сериал. Не из детства, а как контраст. Из черепах 90-х у меня в голове остались в основном добродушные морды и тот период, когда их сделали маленькими. Остальное растворилось. Там каждая серия жила отдельно, было мило, местами бодро, но ниндзя-энергии я не помню. Больше ребячество, чем история. В этом сериале где-то до 5-го сезона все серьезно. TMNT 2003 это семь сезонов, но воспринимается он как один длинный сериал, который собран в дуги. Черепахи живут в...
2 дня назад
Пятничный киноман: «Оно: Добро пожаловать в Дерри»
https://vk.com/video-228145638_456239144 Иногда приквелы делают вид, что рассказывают новое, а по факту просто водят по знакомым коридорам. Тут иначе. Этот сериал не пытается соревноваться с фильмами, он аккуратно отматывает ленту назад и показывает, как Дерри снова начинает “шевелиться” изнутри. И ты ловишь себя на мысли, что смотришь не очередную добавку к франшизе, а историю про место, где страх живёт как местная погода. Действие уходит в прошлое, задолго до событий двух фильмов. Город живёт...
1 неделю назад
🧩 Вайб-кодинг как новый пайплайн В какой-то момент картинки надоедают. Сидишь, промптишь, полируешь, а внутри зудит другое. Хочется движения. Хочется, чтобы сайт жил. В прошлом году я думал обновить Ojo. Хотел интерактив, кубики, WebGL, небольшую магию на сайте Но я хорошо помню, как такие идеи раньше умирали о реальность. Сначала тестируешь графику. Потом программист руками собирает интерактив. Потом оказывается, что в голове было круче, чем на экране. И на этом многие истории заканчиваются. Поэтому я полез в вайб-кодинг. Я тестировал две нейронки, GPT и Google. GPT в мою задачу не попал. А Google, неожиданно, зацепился и начал держать требования. Я шаг за шагом наращивал механику, и за 3 часа собрал прототип, который раньше занял бы недели. Кубики появляются случайно при каждой перезагрузке. Их можно крутить, нажимать, разгонять, они разлетаются и собираются обратно. Я даже полез в эффекты, там пока сложнее, не всегда понимает, что именно я хочу. Но главное, я быстро проверил идею и увидел, что она вообще работает. И вот тут начинается самое интересное. Это не просто моя игрушка на вечер. Похоже, это старт нового пайплайна для Ojo. Я хочу заставить ребят в команде тоже тестировать вайб-кодинг. Не ради того, чтобы они стали разработчиками. Ради другого. Чтобы дизайнер мог проговорить идею, быстро собрать черновик и проверить, не развалится ли она в интерактиве. Чтобы мы перестали спорить на уровне вкуса и начали спорить на уровне прототипа. Если идея держится в вайб-кодинге, значит, можно отдавать в продакшен и доводить. Если разваливается, значит, правим концепт, а не тратим неделю на обсуждения. 📍 Если коротко  Вайб-кодинг стал быстрым способом проверять интерактивные идеи для Ojo. Я собрал прототип кубиков за несколько часов и теперь хочу подключить команду, чтобы каждый дизайнер мог проговаривать идею и сразу тестировать, работает ли она в реальности.
1 неделю назад
Как мы настроили гибкий пайплайн для иллюстраций
Мы в Midjourney давно, ещё с четвёртой версии, когда для каждой новой версии приходилось заново привыкать. Один и тот же промт в разных версиях выдавал совершенно разные картинки. Только начиная примерно с шестой-седьмой версии промты более-менее устаканились, и стало понятно, как держать один стиль без скачков. Наш первый пайплайн был самый простой Midjourney → Photoshop Пример — сайт Добрый доктор где брали MJ пятой версии для создания иллюстраций, а потом в Photoshop доводили цвет, свет и мелкие штуки под макеты...
5 месяцев назад
Фото без фотографа: как я сделал себе студийный портрет в Midjourney
Всё началось с фотографии моего дедушки. Я восстановил его старый чёрно-белый снимок через нейросеть — и впервые по-настоящему задумался: Можно ли не просто «почистить» старое фото, а переосмыслить образ — через стиль, через свет, через атмосферу? И в какой-то момент стало интересно: Что, если попробовать то же самое со своим лицом? Я взял обычное селфи, снятое на телефон. Загрузил его в Midjourney с параметром --oref — и начал экспериментировать с промтами: Результаты стали появляться быстро. И, честно, они удивили...
8 месяцев назад
Если нравится — подпишитесь
Так вы не пропустите новые публикации этого канала