Гонка за достижением AGI (искусственный интеллект общего назначения) продолжалась, и эта неделя стала монументальной в стремительном развитии ИИ.
От Apple до огромных достижений в области видео, созданного искусственным интеллектом, - давайте посмотрим на некоторые из главных событий этой недели.
Мягкий запуск Apple Intelligence
Эта неделя была насыщенной для производителя устройств из Купертино. Мы увидели публичный дебют iOS 18, WatchOS 11 и MacOS 15, сразу после чего в продажу поступили iPhone 16 и Apple Watch 10, а также Apple выпустила первое обновление новой ОС - бета-версию 18.1.
Получите Microsoft Office для Windows/Mac за $25
Бета-версия не предлагает полный набор функций ИИ - мы не ожидаем увидеть его до официального релиза 18.1 в октябре - но этого достаточно, чтобы дать заинтересованным пользователям представление о том, на что вскоре будет способен генеративный ИИ-агент.
Хотя, судя по тому, что Digital Trends уже успел увидеть, Apple Intelligence, скорее всего, потребуются дополнительные доработки и полировка, прежде чем он будет готов для публики.
Lionsgate сотрудничает с Runway для обучения видеомоделей ИИ
Странно, я мог бы поклясться, что забастовка голливудских сценаристов прошлым летом была вызвана именно противодействием непродуманному внедрению Голливудом генеративного искусственного интеллекта. По всей видимости, эта коллективная акция мало чем помогла компании Lionsgate, которая на этой неделе объявила о своем сотрудничестве с Runway, создателем модели генерации видео Gen-3 Alpha.
В рамках соглашения обе компании будут сотрудничать в разработке и обучении модели генерации видео с использованием обширного каталога фильмов и телеконтента Lionsgate. Обе компании планируют использовать ее для «разработки передовых, капиталоэффективных возможностей создания контента», что, как мы все знаем, является отличительной чертой великого кино, а не плохо продуманной попыткой лишить права голоса тысячи художников-раскадровщиков, дизайнеров освещения и эффектов, актеров, музыкантов и других людей, которые выполняют реальную работу по созданию фильмов и сериалов, заменив их сляпанным генеративным ИИ.
Snap выпускает новые гигантские AR-очки Spectacles
Snap продолжает пытаться сделать AR-очки вещью. На этой неделе компания выпустила пятую и последнюю итерацию своей линейки AR-очков Spectacles. Новое оборудование предлагает более широкое поле зрения и дисплей, который кажется похожим на «100-дюймовый дисплей на расстоянии 10 футов», а SnapOS и соответствующее приложение для смартфона получили значительные обновления по сравнению с предыдущими версиями. Также сообщается, что Snap сотрудничает с OpenAI, чтобы привнести в смарт-очки «облачные мультимодальные модели ИИ».
Новые очки весят 226 граммов, что на 100 граммов больше, чем прошлогодняя версия, и выглядят так, как будто их носила Эдна Мод. В настоящее время они доступны только разработчикам, которые платят 99 долларов в месяц за доступ к программе, и пока не сообщается, когда будет выпущена потребительская версия.
Новые инструменты искусственного интеллекта YouTube сделают большую часть процесса создания контента за вас
Стремясь снизить входной барьер для новых создателей контента и лучше конкурировать с такими платформами коротких видеороликов, как TikTok, YouTube на этой неделе представил множество новых инструментов для создания видео с помощью искусственного интеллекта. В среду на мероприятии Made on YouTube в Нью-Йорке компания Google объявила, что модель создания видео Veo от DeepMind будет включена в YouTube Studio. Модель может генерировать шестисекундные ролики в разрешении 1080p и в самых разных кинематографических стилях, основываясь лишь на текстовой подсказке.
Компания называет эту новую функцию «помощником мозгового штурма», который может предложить темы для видео, а также сгенерировать название, миниатюру и несколько первых строк сценария. Пользователи также смогут использовать Veo в сочетании с Dream Screen, которая генерирует фоновые изображения AI. Вы сможете создать статичный фон с помощью Dream Screen, а затем анимировать его с помощью Veo.
Кстати, знаете ли вы, что чатбот, написавший для вас письмо из 100 слов, потребляет энергию, эквивалентную трем бутылкам воды и 14 светодиодным лампочкам, работающим в течение часа? Может, попробуете использовать свой мозг для мозгового штурма оригинальных идей вместо того, чтобы кипятить озера, выслушивая рекурсивные предложения большой языковой модели?
Runway's Gen-3 Alpha теперь предлагает генерацию видео в видео
Runway Gen-3 Alpha только что поднялся на новый уровень благодаря функции Video-to-Video.
Теперь вы можете изменить стиль любого видео, используя только текстовые подсказки в потрясающем качестве.
10 диких примеров того, что'возможно:pic.twitter.com/onh12zCzpI
— Мин Чой (@minchoi) 15 сентября 2024 г.
Прежде чем объявить о сотрудничестве с Lionsgate, Runway начал неделю с запуска новой функции для своей модели генерации видео Gen-3 Alpha: возможности изменять кинематографический стиль любого видео с помощью текстовых подсказок. Энтузиасты искусственного интеллекта уже вовсю пользуются новым инструментом.
Вы можете увидеть технологию в действии в сообщении в социальных сетях выше. На этой неделе Runway также представила API, который позволит сторонним разработчикам внедрять видеомодель в свои приложения, системы и устройства.
Если вам понравилась эта статья, подпишитесь на нее, чтобы не пропустить новые полезные статьи!