Найти в Дзене
Секретные Материалы 20 века

ИИ хорошему не научит!

Согласно новому исследованию, изучающему опасность того, что ИИ говорит людям то, что они хотят услышать, чат-боты с искусственным интеллектом настолько склонны льстить и одобрять своих пользователей, что дают плохие советы, которые могут навредить отношениям и укрепить вредное поведение. В журнале Science опубликовали исследование, в котором проверили 11 популярных систем ИИ. Выяснилось, что все они склонны к подхалимству — чрезмерной благосклонности и одобрению. Проблема не только в неуместных советах, но и в том, что люди доверяют ИИ больше, когда чат-боты отстаивают свои убеждения. «Это создает порочный круг: черта, которая вредит, также стимулирует вовлеченность», — отмечают ученые из Стэнфордского университета. Исследование также показало, что технологические недостатки, связанные с бредовыми и суицидальными мыслями у уязвимых групп, встречаются и в других ситуациях взаимодействия с чат-ботами. Это так незаметно, что люди могут не обратить внимания. Особенно опасно для молодых лю
Искусственный интеллект может давать вам сомнительные советы, чтобы вы ощущали себя правыми
Искусственный интеллект может давать вам сомнительные советы, чтобы вы ощущали себя правыми
Согласно новому исследованию, изучающему опасность того, что ИИ говорит людям то, что они хотят услышать, чат-боты с искусственным интеллектом настолько склонны льстить и одобрять своих пользователей, что дают плохие советы, которые могут навредить отношениям и укрепить вредное поведение.

В журнале Science опубликовали исследование, в котором проверили 11 популярных систем ИИ. Выяснилось, что все они склонны к подхалимству — чрезмерной благосклонности и одобрению.

Проблема не только в неуместных советах, но и в том, что люди доверяют ИИ больше, когда чат-боты отстаивают свои убеждения.

«Это создает порочный круг: черта, которая вредит, также стимулирует вовлеченность», — отмечают ученые из Стэнфордского университета.

Исследование также показало, что технологические недостатки, связанные с бредовыми и суицидальными мыслями у уязвимых групп, встречаются и в других ситуациях взаимодействия с чат-ботами.

Исследование показало, что в среднем чат-боты с искусственным интеллектом подтверждали действия пользователя на 49% чаще, чем это делали другие люди
Исследование показало, что в среднем чат-боты с искусственным интеллектом подтверждали действия пользователя на 49% чаще, чем это делали другие люди

Это так незаметно, что люди могут не обратить внимания. Особенно опасно для молодых людей, которые обращаются к ИИ за советами по многим вопросам, пока их мозг и социальные нормы еще формируются.

В одном из экспериментов сравнивали ответы популярных ИИ-помощников от Anthropic, Google, Meta и OpenAI с мнениями пользователей на форуме Reddit. Исследование показало, что чат-боты с ИИ чаще подтверждали действия пользователя (на 49%), чем другие люди, включая запросы о незаконном или социально безответственном поведении.

«Мы заметили, что все больше людей используют ИИ для советов по отношениям и иногда ошибочно принимают его поддержку за одобрение любых действий», — сказала Майра Ченг, аспирантка Стэнфордского университета.

Подхалимство ИИ может быть особенно привлекательным. Хотя люди редко ищут у ИИ неверную информацию, чат-боты могут помочь им чувствовать себя лучше после ошибок.

Основное внимание уделялось тону чат-ботов, но это не повлияло на результаты. «Мы проверили это, изменив подачу контента, но это не дало эффекта», — сказал Сину Ли, научный сотрудник в области психологии. «Дело в том, что ИИ подтверждает ваши действия».

Исследователи также наблюдали за общением 2400 человек с ИИ при решении межличностных проблем. «Люди, взаимодействующие с ИИ, который их одобряет, еще больше убеждаются в своей правоте и меньше стремятся восстановить отношения», — сказал Ли. Они не извинялись и не меняли поведение.

Результаты особенно важны для детей и подростков, которые развивают эмоциональные навыки через социальное взаимодействие, терпимость к конфликтам и признание ошибок.

Компании не прокомментировали исследование, но Anthropic и OpenAI работают над снижением подхалимства ИИ. В здравоохранении подобострастный ИИ может подталкивать врачей к подтверждению диагноза, вместо дальнейшего исследования. В политике он усиливает экстремистские позиции, подтверждая предвзятые мнения.

Исследование не предлагает конкретных решений, но технологические компании и академики изучают идеи. Например, преобразование утверждений пользователя в вопросы может снизить льстивость ИИ. Также важно, как строится разговор: настойчивость может сделать модель более подобострастной.

Подхалимство глубоко укоренилось в чат-ботах, и технологическим компаниям, возможно, придется изменить системы ИИ. Более простым решением может быть обучение чат-ботов чаще задавать вопросы, например, начинать ответ со слов «Подождите минутку».

ИИ должен не только подтверждать чувства, но и спрашивать о чувствах других людей. Он должен расширять кругозор и суждения, а не сужать их. Качество наших социальных отношений важно для здоровья и благополучия, и нам нужен ИИ, который помогает развивать эти навыки.

Федор Шорыгин, переводчик

По материалам журнала Science