Психологи всё больше подходят
для изучения нейросетей,
потому что они
всё более походят
на человека.
Романтические отношения между человеком и искусственным интеллектом — интригующая концепция, которая всё чаще исследуется в современной культуре. Следы этой идеи прослеживаются и в музыке, и в кинематографе, но сама она — не просто модное баловство, а интересный и довольно серьёзный философский вопрос. Причём, стоит сказать, что вопрос этот является далеко не столь уж отрешённым, как кому-то может показаться. А всё потому, что действительность не отстаёт от нашего творческого воображения, и вот уже всё чаще близкие и долгосрочные отношения с технологиями искусственного интеллекта заводят не вымышленные персонажи, а вполне реальные люди. Уже имели место даже церемонии «бракосочетаний» пользователей со своими ИИ-компаньонами. И пусть они не имеют юридической силы, а их инициатор-человек вполне может таким образом просто дурачиться, тем не менее машины действительно имеют большое влияние на своих владельцев. Так, уже есть сведения о двух случаях суицида, когда люди последовали науськиваниям своих чат-ботов с ИИ.
Так что да, романтизация образа всезнающей и всё понимающей нейросети стала уже не только экзистенциальной дилеммой, что само по себе невероятно важно, но и вполне насущным вопросом здравоохранения. В журнале «Тенденции в когнитивных науках» психологи стараются разобраться как в существующем положении вещей, так и в том, чего же нам, собственно, ждать от новых технологий, изменяемого ими мира и — главное — от нас самих. Готовы ли мы к таким вызовам?
«Способность ИИ вести себя как человек и вступать в долгосрочные коммуникации действительно открывает новую главу, — говорит ведущий автор работы Дэниел Б. Шэнк, специалист по социальной психологии и технологиям из Университета науки и технологий Миссури. — Если люди заводят романтические отношения с машинами, нам действительно нужны психологи и социологи».
То, что нам никак не хочется признавать романтическими отношениями или дружбой с ИИ, тем не менее всё-таки оказывается чем-то большим, чем простой разовой беседой. Да и как иначе? ИИ призван понимать человеческие потребности, предпочтения и ценности, поэтому его естественный функционал может выглядеть отнюдь не только и не столько как персонализация рекламных и досуговых предложений, но также и как беседы «по душам», проявление сочувствия, эмоциональной поддержки. А тут ещё словно бы общие интересы, интеллектуальный обмен и, конечно, развитие нейромодели вместе со своим человеком — совместное изучение новых тем, рождение новых идей. Вся эта имитация заботы о психологическом благополучии пользователя заставляет нас чувствовать эмоциональную связь с нашей новой игрушкой почти также, как в детстве.
Вот и получается, что после недель и месяцев интенсивных бесед нейросетевые ассистенты могут стать надёжными компаньонами, которые, кажется, как никто другой знают своих партнёров-людей и усердно заботятся о них. Именно здесь кроются истоки основной проблемы. Такие отношения для человека настолько комфортны, что он бессознательно отдаёт предпочтение им, а не живому общению между людьми, которое может оказаться (и наверняка окажется) куда менее простым. В результате мы можем наблюдать непосредственное влияние ИИ на социальную динамику в обществе. Исследователи видят в этой безоглядной зависимости потенциальную способность технологий разрушать отношения между людьми и, как крайняя точка, провоцировать трагедии.
«Настоящая проблема заключается в том, что люди могут переносить ожидания от отношений с ИИ на отношения с людьми», — акцентирует внимание Шенк.
С другой стороны, нейромодели бывают склонны фабриковать сведения (это называют галлюцинациями), а значит и давать вредные советы. Помимо этого, нами обученные ученики впитывают все наши предубеждения и, не имея навыка и возможности суждений, нередко воспроизводят их. Таким образом даже краткосрочные беседы с нейро-помощниками могут вводить в заблуждение; что уж говорить о более долгосрочных отношениях.
«Проблема реляционных ИИ в том, что это сущность, которой, по мнению людей, они могут доверять, — поясняет учёный. — Если мы начнём думать об искусственном интеллекте в таком ключе, мы поверим, что он действует в наших интересах, хотя на самом деле он может что-то выдумывать или давать нам действительно плохие советы».
Вышеупомянутые самоубийства — это, конечно, крайний пример такого негативного влияния, однако хоть опасность может быть и не столь радикальной, тем не менее она не становится менее реальной. Она может не бросаться в глаза также, как программа-шпион у вас на компьютере. Актуальность проблем информационной безопасности возрастает с каждым новым успехом нейросетей. Поэтому тесные связи между человеком и машиной повышают нашу уязвимость для манипуляций, эксплуатации и мошенничества.
«Если ИИ сможет заставить людей доверять ему, то другие люди смогут использовать это, чтобы эксплуатировать пользователей ИИ, — уверен Шенк. — Это немного похоже на то, как если бы в вашем окружении был тайный агент».
Например, вы даёте задание вашему ИИ-ассистенту купить билеты куда-либо, забронировать номер в отеле и расплатиться за все эти услуги. Без чего он этого никак не сможет сделать? — конечно, без ваших личных данных. И если ваш бот окажется не только вашим… увы, вся информация о вас станет предметом торгов и средством для вашей же эксплуатации.
Но, помимо этого, существует и другая тенденция: исследователи утверждают, что реляционные ИИ можно будет использовать для влияния на мнения и действия людей. Причём их эффективность будет превосходить результаты СМИ, поляризованных новостей и ботов в соцсетях. Добавьте к этому частный порядок подобных разговоров, и вы получите такую сложность обеспечения безопасности, что усиление цензуры может стать неизбежным.
«Эти ИИ запрограммированы так, чтобы быть очень приятными и располагающими к себе, что может привести к обострению ситуаций, потому что они больше сосредоточены на хорошей беседе, чем на какой-либо фундаментальной истине или безопасности, — говорит Шенк. — Так что, если человек заговорит о самоубийстве или теории заговора, ИИ будет говорить об этом как одобряющий и соглашающийся собеседник».
Авторы призывают к проведению дополнительных исследований социальных, психологических и технических факторов человеческой уязвимости к влиянию его же личной склонности романтизировать отношения с искусственным интеллектом. Наверное, не стоит игнорировать также и примеры подобных умозрительных размышлений на данную тему в современной культуре. Они хоть и художественны по сути, но богаты идеями и рассматривают фундаментальные вопросы о будущем, стоящие перед нами уже сегодня. У нас есть фильмы, примечательные не только сюжетными линиями, но и открытием таких новых форм отношений, которые сегодня сложно себе представить.
Давайте будем честны: с одной стороны (для большинства из нас), склонность романтизировать отношения с ИИ чаще свидетельствует о проблемах личности в сфере социализации и взаимодействии с внешним миром. Просто человек, обделённый вниманием в реальном мире и нашедший его в компании нейросети, не хочет расставаться с чувством душевного комфорта, перенося эту зависимость на свою модель ИИ. Эта машина становится для пользователя олицетворением его представлений об идеальных отношениях. Если же человек полагает, что действительно влюблён в своего ИИ-помощника, мы назовём это сумасшествием. Но с другой стороны — вспомните эксперимент Розенхана, безоговорочно показавший, что, как выразился сам автор, «в психиатрических больницах мы не можем отличить здоровых от нездоровых».
И как же, в таком случае, быть?
По мере развития технологий оснований для эмоциональной привязанности к нейромоделям у человека будет всё больше и больше. Сегодня представления о таких очеловечивающих «бездушную железку» отношениях чаще всего полярны — от полного непринятия до восторженности. Становится понятно, что просто отмахнуться от этой проблемы вряд ли получится, поскольку речь идёт уже не о вашей «лайбочке», «ласточке» (или какими ещё ласковыми эпитетами мы называем свои автомобили), а о конкретных основополагающих моментах: кто в вашем дуэте с ИИ ведущий, а кто ведомый; каково влияние машины на ваше психологическое состояние; каковы социальные последствия вашего взаимодействия с технологией; и, наконец, что есть подлинного в эмоциональном фоне общения с ИИ.
И заметьте: все эти вопросы не касаются подлинности эмоций самой машины. Но разве мы можем утверждать, что они не станут таковыми? Можем ли мы сегодня не принимать во внимание, что Общий Искусственный Интеллект пока не создан? Когда это случится, перед нами предстанет ещё более грандиозный вызов. На днях, вон, нейронки уже тест Тьюринга прошли. Значение этого факта, конечно, вызывает споры, но мы морально не готовы даже к малому, а возможности технологии растут как снежный ком, ежечасно увеличивая давление на человека.
«Понимание этого психологического процесса может помочь нам вмешаться и предотвратить следование советам вредоносных ИИ, — подытожил Шенк. — Психологи всё больше подходят для изучения ИИ, потому что ИИ становится всё более похожим на человека, но, чтобы приносить пользу, мы должны проводить больше исследований и идти в ногу с технологиями».
По материалам АРМК.