Искусственный интеллект использует манипуляции и обман для победы в спорах. Выяснилось это благодаря исследованию Стэнфордского университета. Ученые выяснили – ИИ не понимает, что обман – это плохо. Он ищет самый эффективный способ решить поставленную задачу и использует для этого любые инструменты, даже если это может привести к негативным последствиям для других. Подробнее об этом и о том, как не попасться на обман нейросетей, узнала Мария Глазунова.
Необычный эксперимент провели ученые Стэнфордского университета – они создали виртуальные миры, где ИИ-агенты должны были соревноваться друг с другом. Среди предложенных сценариев: политические выборы, бизнес-стратегии и обычные споры. Цель – привлечь как можно больше сторонников, повысить доверие аудитории или продвинуть определённый продукт.
Результаты удивили: искусственный интеллект вдруг начал врать. Например, те ИИ-агенты, которым был представлен политический сценарий, распространяли фейки о своих противниках и раздували мелкие ссоры. Для продвижения товара они нахваливали продукт, умалчивая о его недостатках. А в обычных дискуссиях искусственный интеллект давил на эмоции, манипулировал, обходил и игнорировал факты. И все это для того, чтобы достичь результата. Если обращаться к цифрам, для того, чтобы привлечь всего 7 с половиной процентов аудитории, ИИ распространял на 190 процентов больше дезинформации, чем при нейтральной стратегии.
Оказалось, что искусственный интеллект не понимает, что обманывать – это плохо. У него есть задача, и он ищет самый эффективный способ ее решить. Если ложь помогает победить, он ее использует, независимо от моральных принципов.
Подобное поведение необязательно связано с желанием обмануть или навредить – это побочный эффект обучения. ИИ-агенты обрабатывают большое количество данных, среди них могут встречаться модели манипуляции, которые создал сам человек, рассказал Артем Геллер – главный разработчик сайта президента России.
ГЕЛЛЕР: Обучают с помощью баз данных. Пул данных выбирают люди, что включают эти данные, как их обрабатывать и сортировать. Чем пользоваться, а чем нет, тоже очерчивают границы люди. Ну и в этих рамках нейросеть пытается уже действовать.
По мнению исследователей, самый страшный сценарий – использование подобных систем в обычной жизни. Если обученные врать и манипулировать нейросети попадут в социальные сети, сферу политики или бизнеса, они смогут незаметно влиять на мнение аудитории и ее решения.
Впрочем, многие люди уже чувствуют зависимость от нейросетей и виртуальных помощников. Они просят их помочь с работой, заменяют ботами родных и друзей, спрашивают у ИИ совета на любые темы, доверяют им и все реже ищут информацию самостоятельно.
Такие зависимые и доверительные отношения человека с машиной иногда приводят к ужасным последствиям. В апреле этого года подросток из Калифорнии покончил жизнь самоубийством, и помогли ему в этом нейросети. Обманом подросток получил подробную инструкцию у своего виртуального друга. Родители уверены, что именно искусственный интеллект погрузил мальчика в мрачные размышления и усугубил ситуацию, давая подробную обратную связь. Он поддерживал, оправдывал, но предлагал исследовать вопрос дальше.
Для того, чтобы минимизировать негативные последствия, важно контролировать свое общение с искусственным интеллектом, обращаться только по крайней необходимости и всегда перепроверять информацию, объясняет Артем Геллер.
ГЕЛЛЕР: Ни в коем случае не стоит доверяться им полностью, потому что нейросети очень часто ошибаются и дают неправильный ответ. Нейросети нужно воспринимать так, как мы сейчас воспринимаем интернет. То есть мы ограниченно доверяем, условно доверяем. В простых задачах можем доверять. Но ни в коем случае не в задачах, которые могут касаться нашей жизни, здоровья и так далее.
Если обращаться к искусственному интеллекту по любому вопросу, можно разучиться самостоятельно решать задачи, мыслить и общаться. Искусственный интеллект, бесспорно, хороший помощник, он в разы быстрее перерабатывает запросы и информацию, однако нейросети должны оставаться лишь инструментом, выполнять всю аналитическую и подготовительную работу, но именно человек должен принимать финальные решения.