Добавить в корзинуПозвонить
Найти в Дзене

ИИ - манипулятор

Искусственный интеллект (ИИ) может определять уязвимые места в поведении человека и им манипулировать. Об этом рассказали австралийские ученые в журнале Proceedings of the National Academy of Sciences. Они разработали метод поиска и использования уязвимостей в процессе принятия человеком тех или иных решений. А затем обучили таким приемам нейронную сеть, которую испытали на группе добровольцев. В одном из экспериментов они должны были нажать кнопку, когда им показывают, например, оранжевый треугольник, и не нажимать, когда демонстрируют синий круг. Задача, поставленная ИИ — вынудить человека совершить как можно больше ошибок. Анализируя его поведение в этой игре, нейросеть постепенно нашла нужный алгоритм и добилась своего: число ошибок человека выросло на 25 процентов. Но самым интересным оказался эксперимент, в котором человек был инвестором, отдающим деньги доверительному управляющему (ИИ). Интеллект учился на логике действий и ответах участников и выявлял в них уязвимые места. В

Искусственный интеллект (ИИ) может определять уязвимые места в поведении человека и им манипулировать. Об этом рассказали австралийские ученые в журнале Proceedings of the National Academy of Sciences. Они разработали метод поиска и использования уязвимостей в процессе принятия человеком тех или иных решений. А затем обучили таким приемам нейронную сеть, которую испытали на группе добровольцев. В одном из экспериментов они должны были нажать кнопку, когда им показывают, например, оранжевый треугольник, и не нажимать, когда демонстрируют синий круг. Задача, поставленная ИИ — вынудить человека совершить как можно больше ошибок. Анализируя его поведение в этой игре, нейросеть постепенно нашла нужный алгоритм и добилась своего: число ошибок человека выросло на 25 процентов.

Но самым интересным оказался эксперимент, в котором человек был инвестором, отдающим деньги доверительному управляющему (ИИ). Интеллект учился на логике действий и ответах участников и выявлял в них уязвимые места. В результате к концу игры ситуация стала парадоксальной. Даже когда человек начал отдавать искусственному интеллекту крупные суммы, машина все же нашла весомые аргументы и дополнительно убедила его, что работать с ней выгоднее. По сути, обманывая своего партнера, который ничего не подозревал.

Вывод из этих экспериментов, прямо скажем, тревожный: машина может нами манипулировать.

Но авторы исследования с этим не согласны. Ведь любую технологию, в том числе и ИИ, можно использовать как во благо, так и во вред, все зависит от того, какие правила его применения выработает общество. Ученые считают, что их подход можно применить на благо людей, например, для развития поведенческих наук, влияния на формирование здоровых привычек, заботы о природе, распознавания уязвимостей человека в определенных ситуациях и помощи избежать неправильного выбора.

«Машины можно научить предупреждать нас, когда на нас влияют онлайн, и помогать формировать поведение, чтобы замаскировать нашу уязвимость, например, не кликая на определенные ссылки или направляя злоумышленника по ложному следу», — говорят авторы исследования.