Найти тему

Мужские и женские голоса роботов – гендерные стереотипы в голосовых помошниках

Голосовые помощники на базе искусственного интеллекта (ИИ) все чаще появляются в нашей повседневной жизни. Роботы для обслуживания клиентов существуют в банковских приложениях, службах клиентского сервиса и поддержки многих крупных кампаний и конечно же телеком-операторов, даже в службах бронирования ресторанов и т.д. И хотя ИИ часто может облегчить жизнь, он же может создать и множество проблем так и внезапно увековечивать чьи-то стереотипы и предрассудки.

Изображение взято из свободных источников.
Изображение взято из свободных источников.

Исследования показали, что, так сказать, предвзятость искусственного интеллекта (ИИ) непропорционально затрагивают мужчин, женщин и людей с различной принадлежностью к тем или иным расам или архетипам. Но о чем большинство людей не задумываются при общении с голосовыми помощниками, так это о гендерных стереотипах, которые представляют эти самые голосовые помощники. Казалось бы это мелочь, да ну и что с того, ведь это часть органичной культуры и устройства в общества в данном месте.

Однако не все стереотипы одинаково безобидны.
Например, когда-то давно пользователи Siri могли дать команды прямо скажем откровенно сексуального характера, даже провокационные! Siri часто могла ответить: «Я бы покраснела, если бы могла». Кажется ну и что такого - это может быть вмеру забавным. Однако это оценка которую может дать взрослый человек, который имеет некоторый жизненный опыт и понимает, что перед ним забавный робот. Но в то же время дети, столкнувшиеся с растущим давлением и проникновением технологий в общение могут легко копировать такое поведение и даже принимать его за норму. Справедливости ради, с тех пор Apple обновила ответ Siri, сделав его более уместным: «Я не знаю, как на это ответить». Но предубеждения и стереотипы не исчезнут, даже если поменять «эту одну строку кода».

Ещё несколько лет назад большинство умных голосовых ассистентов, подвергаясь так сказать сексуальным домогательствам, флиртовали, избегали или даже благодарили!! пользователя. Это очевидно не злой умысел или какой-то заговор. Просто так «проще всего» обработать щекотливый сценарий не вызвав негодования, отторжения или насмешек пользователей. Проще понравится! Голосовым ассистентам пришлось пройти долгий путь за почти десятилетие от ответов вида: «Ну, спасибо.. !» до «Это похоже на сексуальное домогательство. Это не нормально».

Реакция Siri, когда она только появилась, на подобные команды — не единственный случай. Первой и наиболее очевидной особенностью большинства умных голосых ассистентов является пол. Хотя голосовой бот Google, Google Assistant (Gemini), утверждал раньше, что он, почти дословно: «ест гендерные роли на завтрак», 92,4% всех голосовых помощников на заре своего появления по умолчанию использовали женский голос. Надо сказать что ситуация с тех пор изменилась. Например уже в России голосовой ассистент СБЕРа даёт на выбор несколько персонажей, мужских и женских с различной манерой общения.

Но изначально задачи, которые выполняют эти помощники, часто воспринимаются как традиционная женская работа секретаря, помошницы, ассистента. В этом даже был какой-то оттенок элитарности для пользователя, который, несомненно, помогал продвижению и популяризации помощников в обществе. Но тут есть и опасность, возможно и не большая. Детей это может сподвигнуть относиться к таким ролям как к «беспрекословным помощникам, которые существуют только для того, чтобы безоговорочно служить владельцам». Что может в будущем сформировать принадлежность такой роли к гендеру. Однако не стоит и через чур боятся – общение с лучшим другом, неважно какого гендера, построена также на взаимопомощи и доверии. Тут важно чтобы ребенок не был погружен в общение с таким помощником большую часть своего времени имея разнообразный опыт!

Но! В тех же случаях, когда в голосовых помощниках по умолчанию используется мужской персонаж, чаще всего это будет помощник в банке, бот на сайте юридической фирмы, бухгалтерского учета или бизнеса, предоставляющем аналитическую информацию. Это может быть выигрышно – тут нужно больше доверия, серьёзности и строгости, а мужской персонаж кажется лучше их передаёт? Да, конечно, не нужно искать легкого и шутливого персонажа для клиентского сервиса юридической фирмы, это в любом случае будет неуместно.

В то же время боты и голосовые помощники, которые по умолчанию относятся к женскому полу, почти всегда выполняют секретарские задачи. Эти задачи могут включать обслуживание клиентов, получение информации или выполнение других полезных действий.

В этом нет ничего плохо или хорошего. Это дань представлениям и ожиданиям в обществе создателей того или иного помощника о том какой роли лучше соответствует гендер. Но всё быстро меняется когда тот же голосовой помощник начнет использоваться в другом месте с другими традициями, социальными и культурными нормами. Тогда это может восприниматься и как навязывающие извне «чужих стереотипов».

Однако чаще всего пол помощникам конечно присваивается не со злым умыслом:) Напротив, это результат команд, источником которых служат представители мужского пола. Почему именно мужского? По некоторым, правда устаревшим исследованиям западных ИТ-компаний, женщины составляют лишь 12 процентов исследователей ИИ и всего лишь 6 процентов разработчиков программного обеспечения.

Поэтому важно понимать, для какой аудитории и для решения каких потребностей создаётся помощник. Ничего опасного нет в том что помощник-консультант в медицинских услугах, ориентированных на женщин, будет также иметь женский пол. Наоборот это скажется положительна доверии к нему. Однако мужчины, скорее всего, предпочтут консультанта-персонажа с мужским полом и это тоже очевидный выбор.

Подитоживая – как в и целом в коммуникативных цифровых продуктах, в голосовым ассистентах очень важно думать о том, какое влияние будет оказывать ИИ не только на бизнес, но и на целевую аудиторию а также на не совсем целевую, например на детей или взрослых представителей другого пола. Насколько уместно в культурном и этическом плане то или иное решение!

Присвоение каких-то характерных поведение черт или реакций человеческого пола разговорным голосовым помощникам может как усиливать вредные стереотипы, даже обидеть кого-то, например людей подвергшихся насилию, так и помогать голосовым ассистентам и повышать доверие к ним. Тут важно с любовью и заботой отнестись ко всем насколько это возможно.

Решение этих проблем не простое. Одно в время популярным было говорить о равноправии в коллективах создателей ИИ, да и в ИТ в целом, между мужчинами и женщинами. Утверждалось, что необходимо иметь значимую долю участников обоих полов в ряду создателей и цель достичь тут полного равноправия. Однако, в большинстве случаев, это не работает или работает с трудом, или излишне политизировано, или наоборот – маргинализировано. Или ещё того хуже – используется для достижения личных и карьерных целей. В конце концов «человеческая природа» сложнее и сильнее чем все правила приёма на работу и распределения обязанностей. Важным тут является исследование проблем этики ИИ в целом, популяризация этих исследований и привитие этических норм в отрасли ИИ и ИТ. Тут не справиться без помощи государств, образовательных учреждений, науки!

1)
Statt, Nick. “AI Voice Assistants Reinforce Harmful Gender Stereotypes, New UN Report Says.” The Verge, The Verge, 21 May 2019

Пение
3339 интересуются