Найти тему

Пойманный в опасную петлю: люди наследуют предубеждения искусственного интеллекта

Исследование, проведенное Университетом Деусто, показывает, что люди могут унаследовать предубеждения ИИ при принятии решений. Участники, использующие предвзятый ИИ, отражали его ошибки, и это предубеждение сохранялось даже без помощи ИИ. Это подчеркивает настоятельную необходимость исследований и нормативных актов в области сотрудничества искусственного интеллекта и человека.
Исследование, проведенное Университетом Деусто, показывает, что люди могут унаследовать предубеждения ИИ при принятии решений. Участники, использующие предвзятый ИИ, отражали его ошибки, и это предубеждение сохранялось даже без помощи ИИ. Это подчеркивает настоятельную необходимость исследований и нормативных актов в области сотрудничества искусственного интеллекта и человека.

Согласно новому исследованию, люди могут перенимать предубеждения искусственного интеллекта в своих процессах принятия решений.

Новое исследование предоставляет доказательства того, что люди могут наследовать предубеждения искусственного интеллекта (систематические ошибки в выводах ИИ) в своих решениях. Исследование было проведено психологами Лусией Висенте и Хеленой Матуте из Университета Деусто в Бильбао, Испания.

Поразительные результаты, достигнутые системами искусственного интеллекта, которые могут, например, вести беседу так, как это делает человек, придали этой технологии имидж высокой надежности. Все больше профессиональных областей внедряют инструменты на основе искусственного интеллекта для поддержки процесса принятия решений специалистами, чтобы свести к минимуму ошибки в их решениях. Однако эта технология не лишена рисков из-за предвзятости результатов искусственного интеллекта. Мы должны учитывать, что данные, используемые для обучения моделей ИИ, отражают прошлые человеческие решения. Если эти данные скрывают закономерности систематических ошибок, алгоритм ИИ изучит и воспроизведет эти ошибки. Действительно, обширные данные указывают на то, что системы искусственного интеллекта наследуют и усиливают человеческие предубеждения.

Обратная передача предвзятости

Наиболее важный вывод из исследования Висенте и Матуте заключается в том, что может иметь место и обратный эффект: люди наследуют предубеждения искусственного интеллекта. То есть не только ИИ унаследует свои предубеждения от человеческих данных, но и люди могут унаследовать эти предубеждения от ИИ, с риском попасть в опасную петлю. Scientific Reports публикует результаты исследований Висенте и Матуте.

В серии из трех экспериментов, проведенных этими исследователями, добровольцы выполняли задачу медицинской диагностики. Группе участников помогала предвзятая система искусственного интеллекта (она демонстрировала систематическую ошибку) во время выполнения этого задания, в то время как участники контрольной группы были без посторонней помощи. Искусственный интеллект, задача медицинской диагностики и болезнь были вымышлены. Весь сеттинг был симуляцией, чтобы избежать вмешательства в реальные ситуации.

Влияние на принятие решений

Участники, которым помогала предвзятая система ИИ, допускали ошибки того же типа, что и ИИ, в то время как контрольная группа этих ошибок не совершала. Таким образом, рекомендации ИИ влияли на решения участников. И все же самым значительным выводом исследования было то, что после взаимодействия с системой искусственного интеллекта эти добровольцы продолжали имитировать ее систематическую ошибку, когда переключались на выполнение задачи диагностики без посторонней помощи.

Другими словами, участники, которым впервые помог предвзятый ИИ, повторили его предубеждение в контексте без этой поддержки, демонстрируя таким образом унаследованную предвзятость. Этот эффект не наблюдался у участников контрольной группы, которые с самого начала выполняли задание без посторонней помощи.

Эти результаты показывают, что искаженная информация в модели искусственного интеллекта может оказывать длительное негативное влияние на человеческие решения. Обнаружение эффекта наследования предвзятости ИИ указывает на необходимость дальнейших психологических и междисциплинарных исследований взаимодействия ИИ и человека. Кроме того, регулирование, основанное на фактических данных, также необходимо для гарантии справедливого и этичного ИИ, учитывая не только технические характеристики ИИ, но и психологические аспекты взаимодействия ИИ и людей. P.S. Кому интесны новости о ИИ подписывайтесь на мой канал.Пожалуйста помогите в развитии!