Эксперты собираются вместе, чтобы заглянуть под капот сгенерированного искусственным интеллектом кода, языка и изображений, а также его возможностей, ограничений и будущего воздействия.
Появление генеративного искусственного интеллекта вызвало глубокое философское исследование природы сознания, творчества и авторства. По мере того, как мы становимся свидетелями новых достижений в этой области, становится все более очевидным, что эти синтетические агенты обладают замечательной способностью создавать, повторять и бросать вызов нашим традиционным представлениям об интеллекте. Но что на самом деле означает для системы искусственного интеллекта быть “генеративной” с вновь обретенными размытыми границами творческого самовыражения между людьми и машинами?
Для тех, кому кажется, что “генеративный искусственный интеллект” — тип искусственного интеллекта, который может создавать новые и оригинальные данные или контент, аналогичный тому, на чем он был обучен, — появился как сенсация за одну ночь, в то время как новые возможности действительно удивили многих, базовая технология находится в стадии разработки. на какое-то время.
Но понимание истинных возможностей может быть таким же расплывчатым, как и некоторый генеративный контент, создаваемый этими моделями. С этой целью исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) собрались для обсуждения возможностей и ограничений генеративного ИИ, а также его потенциального воздействия на общество и отрасли промышленности в отношении языка, изображений и кода.
Существуют различные модели генеративного искусственного интеллекта, каждая со своими уникальными подходами и техниками. К ним относятся генеративные состязательные сети (GAN), вариационные автокодеры (VAEs) и диффузионные модели, которые продемонстрировали исключительную эффективность в различных отраслях промышленности и областях, от искусства до музыки и медицины. С этим также связано множество этических и социальных загадок, таких как потенциальная возможность создания поддельных новостей, глубоких подделок и дезинформации. По словам исследователей, принятие этих соображений крайне важно для продолжения изучения возможностей и ограничений генеративного искусственного интеллекта и обеспечения этичного использования и ответственности.
Во вступительном слове, чтобы проиллюстрировать визуальное мастерство этих моделей, профессор электротехники и компьютерных наук Массачусетского технологического института (EECS) и директор CSAIL Даниэла Рус достала специальный подарок, который недавно преподнесли ей студенты: коллаж из портретов искусственного интеллекта, дополненный улыбающимися снимками Руса, отражающими спектр зеркальных отражений.. Тем не менее, в поле зрения не было ни одного заказанного художника.
Машину нужно было благодарить.
Генеративные модели учатся создавать изображения, загружая множество фотографий из Интернета и пытаясь сделать выходное изображение похожим на образец обучающих данных. Существует много способов обучения генератора нейронных сетей, и диффузионные модели - лишь один из популярных способов. Эти модели, объясненные адъюнкт-профессором EECS Массачусетского технологического института и главным исследователем CSAIL Филиппом Изолой, отображают случайный шум на изображения. Используя процесс, называемый диффузией, модель преобразует структурированные объекты, такие как изображения, в случайный шум, и процесс инвертируется путем обучения нейронной сети шаг за шагом удалять шум, пока не будет получено бесшумное изображение. Если вы когда-либо пробовали свои силы в использовании DALL-E 2, где вводятся предложение и случайный шум, а шум сгущается в изображения, вы использовали диффузионную модель.