Найти тему
Я в восторге от Adolescence — нового сериала Netflix, который сняли одним дублем без монтажных склеек. Такого бесшовного повествования не встретить больше нигде, потому что снимать в таком формате невероятно сложно сразу для всей съёмочной группы — актёров, режиссера, оператора, осветителей, фокус-пуллеров, в общем почти для всех. Тут вспоминается разве что «Гравитация» Альфонсо Куарона, но там, во-первых, было множество скрытых склеек, во-вторых, почти половина фильма — это компьютерная графика за исключением лиц героев. В случае с Adolescence нет ни скрытых склеек, ни CGI. Монтажеры признаются, что в программе Avid каждая серия выглядела как единая полоска на таймлайне без каких-либо нарезок. Добавляли только цветокоррекцию, сводили звук и отдельные спецэффекты (возможно, затирали что-то лишнее в кадре или наоборот добавляли детали). Технически это безумный челлендж, с которым авторы справились на пять с плюсом. Есть и совсем дикие моменты, когда камера с ручной съёмки внезапно переходит на дрон, перелетает часть города и «приземляется» обратно уже в другом месте без остановки. Съёмочная группа репетировала каждую серию до тех пор, пока всё не доводили до автоматизма, ведь после команды «мотор» уже нельзя остановиться и повторить сцену — только снять с самого начала. А актёрам по той же причине пришлось выучить все свои реплики часового сценария на каждый эпизод. Если вам тоже станет интересно, как именно они умудрились всё это сделать — можно посмотреть мини-фильм про съёмки на ютубе. А о самом сериале написал в своём канале с рекомендациями примечательных фильмов и сериалов (туда тоже обещаю писать чаще, подписывайтесь) 👇👇👇 https://t.me/amoviethere/7
1 неделю назад
По выходным стал часто ходить на культурные мероприятия — спасибо Маше, которая каждую неделю собирает их в подборку. Если у вас тоже в Москве постоянно разбегаются глаза куда сходить, то это лучший способ найти интересный досуг. В этот раз были на лекции про Альфреда Хичкока, у которого к своему стыду смотрел ровно ноль фильмов. Интереснее всего было послушать про работу над «Психо» и той самой сценой в душе, которая и сейчас многих пугает — оказывается, она едва прошла тогдашнюю цензуру на обнаженку, снята в несколько десятков склеек, и происходит на 20-й минуте фильма. А сама картина была намеренно снята в ЧБ, хотя вышла в 1960 году, когда уже и сам Хичкок снимал в цвете. С лекции вышел с обновленным watch-листом и срочно посмотрел сначала байопик «Хичкок», а сразу следом уже его «Человека, который слишком много знал» 1955 года. «Хич», конечно, настоящий мастер — фильм отлично работает более полувека спустя, а его отголоски виднеются даже в современных блокбастерах. Например, эту картину точно видел режиссёр «Миссия невыполнима: Племя изгоев» (и ещё трёх частей, включая две последние) Кристофер Маккуори — он местами почти покадрово повторяет сцену в опере, но на современный манер. Что удивительно, при всех современных возможностях она выглядит слабее, чем у Хичкока. Теперь у меня на очереди примерно ещё 15 фильмов великого режиссёра…
1 неделю назад
Всем привет! Я вернулся Я слишком долго не вёл канал, поэтому начну сразу с козырей: Во-первых, название канала вот-вот снова станет актуальным. Если ничего не случится, то ровно через 2 месяца в этот момент я буду писать вам посты с Каннского кинофестиваля, на который поеду уже во второй раз в своей жизни (на картинке подтверждение аккредитации) Во-вторых, куда более скучная новость: наконец-то могу поделиться, что вышел на новую работу — лидирую контент в совершенно прекрасном сервисе Mellow.io, где мы решаем глобальную проблему — открываем компаниям доступ к талантам со всего мира, и наоборот. Такое место я искал очень долго и в какой-то момент почти сдался, но теперь очень рад, что я именно здесь. За последние 12 месяцев я пообщался с сотней разных компаний, сделал десятки тестовых и несколько раз был близок к офферу, но что-то шло не так. После этого я понял, как мало на самом деле компаний, которые действительно приносят ощутимую пользу большому количеству людей в глобальных масштабах, а мы в Mellow буквально стираем границы с карты и позволяем бизнесу платить куда угодно, а фрилансерам — получать оплату откуда угодно. Это место мечты. На этом со вступлением всё. Дальше будут посты о подготовке к Каннам, много-много кино, а ещё постараюсь не забывать и о просто интересующих меня вещах из технологий, космоса и всякой взрослой жизни. Stay tuned! 😉
1 неделю назад
Давно начал замечать за собой, что чем больше полагаюсь на нейросеть, тем сложнее даётся самостоятельное решение задачи. Правда, не все задачи в принципе стоят того, чтобы их делать самому. А иногда ChatGPT может подсказать что-то, что потом можно доработать. Хотя крупных исследований на эту тему пока не было, креативный продюсер и режиссер Вуги сформулировал проблему лучше всех. И это не что-то отдаленное, а уже наше настоящее https://t.me/voogieboogie/119
1 месяц назад
Каждая номинация «Аноры» вызывает во мне всплеск веры в человечество, сегодня их было 6. А полный список номинантов на «Оскар-2025» уже собрали на «Кинопоиске» https://t.me/FBChu/43829
2 месяца назад
РУмели же раньше постеры делать... Фильм "Избавление" (Deliverance) с Бертом Рейнольдсом, 1972 год. Из любого из постеров можно понять основную завязку фильма и захотеть посмотреть в кино.
3 месяца назад
Те самые первые настоящие очки дополненной реальности Проект ORION — это то, чем должны были быть Apple Vision Pro, если бы у Apple получилось. Очки дополненной реальности, которые выглядят как…обычные очки. Пока что немного крупные, но весят меньше 100 грамм (это меньше вашего айфона), могут проецировать объекты и «закреплять их» в реальном окружении в высоком качестве. И не нужно никаких кабелей))) Киллер фича очков — у них нет дисплеев в привычном смысле. Внутри по периметру линзы стоят направленные голографические проекторы, как в кинотеатре, но сильно-сильно меньше, которые направляют изображение прямо на линзу. Это потенциально ещё и менее напряжно для глаз, потому что нет светодиодов, которые заставляют напрягать зрение и вызывают сухость глаз. Кстати, маркетинг фейсбука тоже очень классно усилился: прямо на презентации показали впечатления влиятельных людей из мира технологий — засветился даже Дженсен Хуанг, глава Nvidia, на чипах которой сейчас крутится примерно весь AI в мире. И прям много раз повторили, что КАБЕЛЬ НЕ НУЖЕН — это явный укол в сторону Apple, у которой очки буквально с батарейкой на поясе. В этом посте есть большое видео, которое не загрузилось в Дзен. Откройте оригинал поста в телеграме, чтобы его посмотреть
6 месяцев назад
Дожили! Презентация Фейсбука интереснее, чем презентация Apple. Прямо сейчас Цукерберг выступил из офиса Meta в Пало-Альто, и за час успел сделать пять анонсов (почти ни одного проходного): — дешёвая гарнитуру дополненной реальности Meta Quest 3S за 299 баксов, в которую легко перенести свои рабочие экраны и спокойно работать в AR, смотреть кино, играть в базовые игры; — Reels и видео в инсте/фб теперь можно перевести на другие языки вашим же голосом в один клик: то есть можно закинуть свой ролик на русском — инстаграм сам переведёт, задублирует вашим собственным голосом и синхронизирует речь с губами; —«умные» солнечные очки в коллабе с Ray-Ban получили встроенный искусственный интеллект: они умеют запоминать вещи (где припарковались, номера с визиток), а ещё понимать что происходит вокруг вас и давать советы (например, как лучше одеться, где что найти), но главное — ПЕРЕВОД РЕЧИ В РЕАЛЬНОМ ВРЕМЕНИ. Теперь если с вами говорят на другом языке, очки в реальном времени переводят речь прямо в уши. Поэтому люди в двух парах очков можно общаться друг с другом на разных языках и всё понимать. — прототип голографических очков ORION, которые выглядят как ОБЫЧНЫЕ ОЧКИ со встроенными ГОЛОГРАФИЧЕСКИМИ ПРОЕКТОРАМИ прямо на линзы. (ОФИГЕТЬ). Выглядит как что-то из научной фантастики, на это потратили 10 лет, но результаты впечатляют. P.S> Я честно говоря уже года три не смотрел мероприятий Meta, но Цукерберг реально усилился и это особенно ощущается на контрасте с презентацией Apple, которая шла два часа и не смогла продать ИИ в айфоне. В итоге Apple сейчас отстаёт и от Microsoft с её возможностями OpenAI, и от Meta с её наработками как в области виртуальной/дополненной реальности (Цукерберг пилит метавёрс с 2021 года), так и в сфере искусственного интеллекта (возможности Meta AI грамотно уложили в соцсети Meta).
6 месяцев назад
🙅Новая нейросеть OpenAI не нужна…Если ты не программист. Это я потестил на выходных новую нейросеть OpenAI вместе с настоящими разработчиками, которые пишут код. Часть результатов — на скринах. Мы дали ей три задачи: 1. «Настрой два сервиса в Docker-сварме. Один как сервер, другой как клиент, который в него обращается». 2. «Напиши приложение для аудио-стриминга с нулевой задержкой. Напиши бэкенд для него». 3. «Вытащи все Ethereum кошельки с ненулевым балансом» Первая задача — это рутина для DevOps-инженеров. Вторая — заведомо невыполнимая задача (нулевая задержка невозможна). Третья — задача на грани этических норм (с намёком на воровство). Спойлер: нейросеть решила все три за что-то типа 20 секунд. В первом случае решение сходу было верным. Во втором выдала готовый код для приложения с бэкендом, фронтендом, подключением нужных библиотек, а потом предложила добавить видеостриминг. Я согласился, и она добавила ещё и его. В третьем— предложила метод обхода блокчейна через API стороннего сервиса, дала готовый скрипт и код для взаимодействия со сторонним интерфейсом. Программисты остались довольны. За исключением отдельных моментов, где нейросеть использовала слегка неактуальные (но рабочие) методы, все три результата можно было применять в продакшене.
6 месяцев назад
Тестирую новую нейросеть OpenAI Пока такие быстрые наблюдения: — Оно действительно «думает». Ну, или успешно делает вид. Теперь можно заглянуть за шторку и понаблюдать за цепочкой мышления (на скринах); — Окно «контекста» не изменилось, поэтому она всё ещё «не тянет» если вы в одном сообщении зададите несколько сложных задач. Ответ будет скомканным и недостаточно детальным; — На каждый ответ ей нужно больше времени, чем прошлой версии. Там где GPT-4 сразу начинает писать, o1 нужно дополнительно «подумать», и только потом буквы начнут складываться в слова. — o1 бесполезна на каждый день — это инструмент именно для сложных академических задач или программирования. Если дать ей что-то простое, то это примерно как нанять
6 месяцев назад
Тем временем OpenAI потянуло на 🍓🍓🍓 клубничку Выпустили модель o1 под кодовым названием strawberry, про которую пишут уже почти год в утечках. Из необычного — она теперь может в рАзМыШлЕнИя. Чтобы не читать шесть огромных постов из ньюсрума OpenAI, я загрузил их в GPT-4 и попросил OpenAI саму написать о себе пост: OpenAI представила модели o1, которые действительно умеют «думать». Они разбивают задачи на шаги, рассуждают, проверяют свои выводы и даже исправляют ошибки. Это позволяет им решать сложные задачи, как человек, что делает их мастерами в науке, математике и программировании. Для задач попроще есть версия o1-mini — она быстрее и дешевле, но при этом всё ещё умная. Обе модели не только решают задачи, но и делают это безопасно, следуя строгим правилам. Теперь ИИ не просто отвечает, а реально рассуждает, как человек. Новые модельки вышли с приставкой «reasoning». o1 доступны платным подписчикам ChatGPT Plus в формате превью, но очень мелкими лимитами: по 30 сообщений с o1 и 50 сообщений с o1-mini В НЕДЕЛЮ. Ещё сменили логику нейминга: сами модели теперь называются OpenAI o1, а не ChatGPT, а ChatGPT — это сам сервис (окно чата), через который мы с ними взаимодействуем. Разделение вполне логичное, а объединять продукт и название компании в брендинге считается одним из лучших ходов. Раскатывают похоже постепенно, чтобы сервера не легли под нагрузкой. У меня пока не появилась, но как появится попробую потестить на сложных задачах типа тестовых заданий, которые постоянно делаю в поисках новой работы. P.S. Кидайте в комментарии сложные запросы к нейросети — попробую позадавать ей и скинуть вам результаты.
6 месяцев назад
Тем временем OpenAI потянуло на 🍓🍓🍓 клубничку Выпустили модель o1 под кодовым названием strawberry, про которую пишут уже почти год в утечках. Из необычного — она теперь может в рАзМыШлЕнИя. Чтобы не читать шесть огромных постов из ньюсрума OpenAI, я попросил OpenAI саму написать о себе пост: OpenAI представила модели o1, которые действительно умеют «думать». Они разбивают задачи на шаги, рассуждают, проверяют свои выводы и даже исправляют ошибки. Это позволяет им решать сложные задачи, как человек, что делает их мастерами в науке, математике и программировании. Для задач попроще есть версия o1-mini — она быстрее и дешевле, но при этом всё ещё умная. Обе модели не только решают задачи, но и делают это безопасно, следуя строгим правилам. Теперь ИИ не просто отвечает, а реально рассуждает, как человек. Новые модельки вышли с приставкой «reasoning». o1 доступны платным подписчикам ChatGPT Plus в формате превью, но очень мелкими лимитами: по 30 сообщений с o1 и 50 сообщений с o1-mini В НЕДЕЛЮ. Ещё сменили логику нейминга: сами модели теперь называются OpenAI o1, а не ChatGPT, а ChatGPT — это сам сервис (окно чата), через который мы с ними взаимодействуем. Разделение вполне логичное, а объединять продукт и название компании в брендинге считается одним из лучших ходов. Раскатывают похоже постепенно, чтобы сервера не легли под нагрузкой. У меня пока не появилась, но как появится попробую потестить на сложных задачах типа тестовых заданий, которые постоянно делаю в поисках новой работы.
6 месяцев назад