Найти в Дзене
Шаг Вперед

Исследование: нейросети могут "свихнуться"

ИИ ломает ИИ Создание искусственным интеллектом все большего количества контента, коим сейчас наводнило интернет пространство, может сломать цифровой мозг ИИ, проще говоря, свести "с ума". «Генерация моделей искусственного интеллекта для обработки изображений, текста и других типов данных привели к искушению использовать их же для обучения моделей следующего поколения. И как полагают исследователи повторение этого процесса создает аутофагическую ("самопоглощающую") петлю, свойства которой плохо изучены. Но хорошего даже в изученном мало. Вывод по всем сценариям заключается в том, что без достаточного количества свежих данных в каждом поколении цикла будущие генеративные модели обречены на постепенное снижение их качества. У состояния уже появилось название модельное расстройство аутофагии (MAD по англ.). По словам исследователей, при многократном обучении синтетическому контенту модель начнет извлекать информацию из все более общих и не разнообразных данных, т.е. сгенерированных предыд

ИИ ломает ИИ

Создание искусственным интеллектом все большего количества контента, коим сейчас наводнило интернет пространство, может сломать цифровой мозг ИИ, проще говоря, свести "с ума".

«Генерация моделей искусственного интеллекта для обработки изображений, текста и других типов данных привели к искушению использовать их же для обучения моделей следующего поколения. И как полагают исследователи повторение этого процесса создает аутофагическую ("самопоглощающую") петлю, свойства которой плохо изучены. Но хорошего даже в изученном мало.

Вывод по всем сценариям заключается в том, что без достаточного количества свежих данных в каждом поколении цикла будущие генеративные модели обречены на постепенное снижение их качества. У состояния уже появилось название модельное расстройство аутофагии (MAD по англ.).

По словам исследователей, при многократном обучении синтетическому контенту модель начнет извлекать информацию из все более общих и не разнообразных данных, т.е. сгенерированных предыдущими версиями себя.

И к этому нужно отнестись серьезно, поскольку протестированная модель искусственного интеллекта прошла всего пять этапов обучения с синтетическим контентом, прежде чем начали проявляться трещины в выходных данных.

И если это тот случай, когда ИИ действительно ломает ИИ, то это имеет последствия для реального мира.

Как ясно показывают многочисленные судебные иски против OpenAI, модели искусственного интеллекта широко обучались путем сбора огромного количества существующих онлайн-данных. И в эпоху все более насыщенной искусственным интеллектом Сети такая обработка данных будет становиться все менее надежной. А тем временем искусственный интеллект используется такими крупными компаниями, как Google и Microsoft и те внедряют его в свои поисковые сервисы.

То есть искусственный интеллект уже глубоко вплетен с инфраструктур нашего Интернета. Он создает контент, пытается анализировать содержимое, и он также поглощает контент. И чем больше такого контента появляется в Интернете, тем сложнее компаниям, занимающимся искусственным интеллектом, будет обеспечить, чтобы их обучающие системы не содержали его, что потенциально может повлиять на качество и структуру открытой сети.

Так популярный набор данных LAION-5B, который используется для обучения современных моделей преобразования текста в изображение, таких как Stable Diffusion, содержит синтетические изображения, отобранные из предыдущих поколений генеративных моделей.

Ранее созданные человеком источники текста теперь все чаще воссоздаются генеративными моделями искусственного интеллекта (эффект снежного кома), от отзывов пользователей до новостных сайтов, часто без указания на то, что текст синтезирован, и эта ситуация будет только ускоряться.

В общем, можно ожидать как, гипотетически, весь интернет-мир сойдет с ума вместе с системами искусственного интеллекта.

Но худа без добра не бывает, и в каком-то смысле это вселяет некоторую надежду: машины не могут полностью заменить нас — у них мозги расплавятся!

С другой стороны, если искусственный интеллект захватит мир, возможно, он не убьет людей (но не для того, чтобы делать из нас батарейки, как  в фильме «Матрица»), а просто загонит нас на контент-фермы, где мы все будем вынуждены писать статьи, стихи и делиться нашими семейными рецептами, чтобы нейросети работали без сбоев.