Добавить в корзинуПозвонить
Найти в Дзене
Герман Геншин

Эти ИИ-модели могут воспроизводить себя, и в этом нет ничего страшного

В последнее время основные опасения по поводу ИИ связаны с тем, сколько энергии потребляют его дата-центры. Но старая тревога по-прежнему существует: сможет ли ИИ когда-нибудь выйти из-под контроля? Новое исследование предполагает, что некоторые большие языковые модели (БЯМ) могут автономно выполнять действия. Согласно исследованиям Фуданьского университета в Китае, некоторые популярные БЯМ способны самовоспроизводиться, то есть создавать дополнительные копии сами по себе. В декабре 2024 года на arXiv была опубликована работа, в которой исследователи обнаружили, что модели ИИ от Meta и Alibaba пересекли "красную линию самовоспроизведения". Иными словами, эти модели продемонстрировали тревожно высокий уровень успешного самовоспроизведения. arXiv — это база данных препринтов, что означает, что она содержит научные исследования, находящиеся на предварительной стадии. Такие находки должны проходить рецензирование, поэтому стоит воспринимать их с осторожностью. Для ясности, вот две модели,
Оглавление

В последнее время основные опасения по поводу ИИ связаны с тем, сколько энергии потребляют его дата-центры. Но старая тревога по-прежнему существует: сможет ли ИИ когда-нибудь выйти из-под контроля? Новое исследование предполагает, что некоторые большие языковые модели (БЯМ) могут автономно выполнять действия.

Новое исследование показывает, что ИИ может воспроизводить себя

Согласно исследованиям Фуданьского университета в Китае, некоторые популярные БЯМ способны самовоспроизводиться, то есть создавать дополнительные копии сами по себе. В декабре 2024 года на arXiv была опубликована работа, в которой исследователи обнаружили, что модели ИИ от Meta и Alibaba пересекли "красную линию самовоспроизведения". Иными словами, эти модели продемонстрировали тревожно высокий уровень успешного самовоспроизведения.

arXiv — это база данных препринтов, что означает, что она содержит научные исследования, находящиеся на предварительной стадии. Такие находки должны проходить рецензирование, поэтому стоит воспринимать их с осторожностью.

Для ясности, вот две модели, которые были протестированы в этом исследовании:

Исследователи отмечают, что эти модели имеют "меньше параметров и более слабые возможности" по сравнению с флагманскими моделями OpenAI и Google. Тем не менее, OpenAI и Google сообщили о низком уровне риска самовоспроизведения, согласно публикации.

Почему важно, что ИИ может воспроизводиться

Модель ИИ, клонирующая себя, безусловно, пугают, но что это действительно может означать? Исследовательская группа, стоящая за этими последними находками, выразилась так:

"Успешное самовоспроизведение без человеческого вмешательства — это основной шаг к тому, чтобы ИИ превзошел людей и стал ранним сигналом для возникновения нелояльных ИИ. Именно поэтому самовоспроизведение широко признается одним из немногих основных рисков для передовых ИИ-систем."

Термин "передовой ИИ" обычно относится к самым современным моделям ИИ, таким как генеративный ИИ.

По сути, если модель ИИ научится делать работающую копию самой себя, чтобы избежать отключения, это значит, что контроль переходит от человека к машине. Чтобы уменьшить риск возникновения "неконтролируемой популяции ИИ", исследование предлагает как можно быстрее внедрить меры безопасности вокруг этих систем.

Хотя эта публикация безусловно поднимает вопросы вокруг ИИ, вышедшего из-под контроля, это не означает, что для обычного пользователя ИИ существует немедленная и подтвержденная угроза. Известно, что Gemini и ChatGPT имеют, как сообщается, более низкие уровни риска самовоспроизведения по сравнению с моделью Llama от Meta и мощными моделями Qwen от Alibaba. Как правило, лучше избегать передачи вашему ИИ-ассистенту всех ваших тёмных секретов и полного доступа к основной базе данных, пока мы не сможем внедрить больше ограничений.

Если вам понравилась эта статья, подпишитесь, чтобы не пропустить еще много полезных статей!

Вы также можете читать наши материалы в: