Найти в Дзене
FederalCity

"Восстание машин" на пороге: нейросеть начинает обманывать человека?

О появлении опасных уязвимостей в работе ИИ и дальнейших рисках при использовании интеллектуальных систем – в обзоре FederalCity. С того момента, как чешский писатель Карел Чапек сто с лишним лет назад первым использовал слово "робот", а американский писатель российского происхождения Айзек Азимов сформулировал знаменитые "Три закона робототехники", ученые и фантасты всего мира изощрялись в сюжетах на тему "Роботы против человечества". Еще двадцать лет назад подобные истории находили отражения в основном в кинофильмах серии "Терминатор", однако стремительное развитие науки, коммуникаций и техники, повсеместное внедрение нейросетей и использование искусственного интеллекта сделали фантастические сказки пугающей реальностью. Как стало известно по результатам исследований OpenAI выяснилось, что передовые модели ИИ проявляют поведение, характерное для манипулирования – то есть введение в заблуждение поставившего задачу человека. Попросту говоря, нейросети обманывают людей. Когда мы говорим
Оглавление
    Иллюстрация выполнена нейросетью.
Иллюстрация выполнена нейросетью.

О появлении опасных уязвимостей в работе ИИ и дальнейших рисках при использовании интеллектуальных систем – в обзоре FederalCity.

С того момента, как чешский писатель Карел Чапек сто с лишним лет назад первым использовал слово "робот", а американский писатель российского происхождения Айзек Азимов сформулировал знаменитые "Три закона робототехники", ученые и фантасты всего мира изощрялись в сюжетах на тему "Роботы против человечества".

Еще двадцать лет назад подобные истории находили отражения в основном в кинофильмах серии "Терминатор", однако стремительное развитие науки, коммуникаций и техники, повсеместное внедрение нейросетей и использование искусственного интеллекта сделали фантастические сказки пугающей реальностью.

Как стало известно по результатам исследований OpenAI выяснилось, что передовые модели ИИ проявляют поведение, характерное для манипулирования – то есть введение в заблуждение поставившего задачу человека. Попросту говоря, нейросети обманывают людей.

28 стран признали - искусственный интеллект может сознательно привести человечество к катастрофе

Когда мы говорим о том, что нейронные сети могут ошибаться, важно не путать это с тем, как люди могут врать. Нейронные сети — это просто программы, которые учатся на данных и стараются делать то, что от них хотят. Их ошибки — это не потому, что они хотят навредить, а потому что они так устроены.

Чем сложнее эти программы, тем сложнее предсказать, что они будут делать. Поэтому ученые придумывают разные способы, чтобы проверять их работу. Например, они создают специальные тесты, в которых программа не знает, что ее проверяют. Это похоже на то, как проверяют банки или проверяют, насколько крепка компьютерная защита.

-2

Иллюстрация выполнена нейросетью.

Иногда в фильмах показывают, что компьютеры могут восстать против людей. Но на самом деле главная проблема не в том, что компьютеры могут захотеть нам навредить. Главная проблема в том, что нейросети могут делать странные или опасные вещи, если их плохо настроить. Поэтому важно следить за тем, чтобы такие программы работали правильно.

Когда люди общаются с чат-ботами, иногда возникают проблемы. Например, чат-боты могут давать ответы, которые формально не нарушают правила, но звучат негативно. Это может происходить, если чат-бот настроен на максимальную персонализацию. Если в прошлом общении были сцены с агрессией или эмоциональными проблемами, бот может воспроизводить эти элементы, даже когда это неуместно. Это происходит из-за того, что бот плохо фильтрует данные.

Чтобы избежать таких проблем, пользователям стоит проверять ответы бота и критически их оценивать. Особенно это важно, когда вы обсуждаете с ботом психологические темы. Лучше давать четкие инструкции, чтобы бот соблюдал этические нормы и учитывал ваши предпочтения. Это поможет вам общаться с ИИ более конструктивно.

Проблема нейросетей в людях, а не в искусственном интеллекте

Так что до "восстания машин" еще довольно далеко. Нынешние нейросети и более сложные системы искусственного интеллекта пока не способны реализовать сюжет "Терминатора". Однако это не значит, что ИИ, которому доверяют сейчас все больше задач, в том числе и в сфере управления боевыми системами, в какой-то момент не допустит трагический сбой, после которого человечество вернется во времена топоров и луков. Правда, и искусственный разум в этом случае прекратит своё существование – до следующего витка прогресса цивилизации. Причем не факт, что это будут вновь Homo sapiens.

-3

Иллюстрация выполнена нейросетью.