User Experience (UX) Research – это дисциплина, направленная на понимание потребностей, поведения и эмоций пользователей при взаимодействии с продуктами или услугами. Однако в процессе исследования возникают этические дилеммы, требующие осознанного подхода. Мысли ниже - это попытка охватить ключевые аспекты профессиональной и социальной этики, включая постановку целей, выбор методов и взаимодействие с участниками.
В первой статье (кажется, их будет всего 3) сделаем общий обзор этапов проекта, где могут "всплыть" вопросы этики. Дополняйте своими историями и примерами наше понимание ситуаций.
1. Постановка целей: баланс между бизнесом и благополучием потребителей
Цели исследования должны быть прозрачными и социально ответственными.
- Конфликт интересов:
Например, стремление увеличить время пользования приложением может навредить психическому здоровью. Этичный подход требует диалога с заказчиком о долгосрочных последствиях. - Скрытые цели:
Тестирование манипулятивных механик без информирования участников нарушает принцип уважения.
В следующей статье — примеры токсичных методов и примеров продуктов, где они применялись.
2. Рекрутинг участников: справедливость и инклюзивность
Набор участников для UX-исследований — критически важный этап, от которого зависит не только качество данных, но и соблюдение этических норм.
- Добровольное участие:
Любое давление, прямое или косвенное, недопустимо. Например:
— Неправильно принуждать сотрудников компании к участию в исследованиях под угрозой увольнения или штрафов. Или еще каких-то ограничений.
— Недопустимо манипулировать формулировками в приглашениях, скрывая сложность или эмоциональную нагрузку задач. - Инклюзивность выборки:
Исключение уязвимых групп (мигранты, люди с инвалидностью, люди старшего возраста) искажает результаты и усиливает цифровое неравенство. - Пример этической ловушки:
Рекрутинг через Instagram или Telegram автоматически исключает пожилых людей, которые менее активны в соцсетях. Это приводит к «перекосу» выборки в пользу молодой аудитории и делает продукт непригодным для старшего поколения. - Синтетические респонденты:
— Без предупреждения заказчика: Использование ИИ для генерации псевдо-ответов или имитации поведения пользователей — это манипуляция, которая нарушает принцип достоверности. Результаты становятся ненадежными, так как алгоритмы часто воспроизводят стереотипы или игнорируют нюансы реальных групп (например, культурные особенности людей).
— С предупреждением: Если заказчик согласен, синтетические данные могут сократить затраты на рекрутинг, но требуют четких ограничений: Алгоритмы должны обучаться на репрезентативных и этичных датасетах. Результаты необходимо валидировать через исследования с реальными пользователями.
Пример риска: ИИ-модель, обученная на данных преимущественно молодых мужчин, сгенерирует ложные паттерны поведения для пожилых женщин, что приведет к созданию нефункционального интерфейса для этой группы.
3. Методология: провокационные методы и безопасность
- Задания с невыполнимыми условиями допустимы только при:
Информированном согласии (предупреждение о фрустрации).
Минимизации вреда (декомпрессия после сессии).
Научной ценности (например, тестирование систем безопасности).
Эмоциональный дискомфорт участников, не справившихся с заданиями, — серьезная этическая проблема. Фразы вроде «Я неудачник» или «У меня ничего не получается» сигнализируют о необходимости коррекции методологии.
- Как минимизировать риски:
— Проактивное информирование:
Перед началом поясните:
«Некоторые задачи намеренно усложнены — это помогает нам находить слабые места продукта. Ваши трудности ценны для нас, даже если задание не выполнено».
– Акцент на процессе, а не результате:
Задавайте вопросы: «Что вы чувствовали, пытаясь решить задачу?» вместо «Почему не получилось?».
Подчеркивайте: «Ваш опыт важен, даже если конечная цель не достигнута». - Декомпрессия после сессии:
— Объясните, какие задания были провокационными и зачем.
— Поблагодарите: «Спасибо, что поделились сложностями – это ключ к улучшениям для других людей». - Дизайн заданий:
Избегайте сценариев, где неудача неизбежна (например, интерфейс с намеренно скрытыми элементами). Если такие методы необходимы, ограничьте их количество и продолжительность.
Пример нарушения:
Участник, трижды проваливший задачу восстановления пароля, заявил: «Я чувствую себя глупо». Исследователь не стал объяснять, что ошибки были частью теста, что усилило стресс. Это ошибка скрипта исследования и вводной разъясняющей коммуникации при онбординге. Тренируемся, ребята, онбординг делать правильно.
Неудачи в исследованиях — источник ценных данных, но они не должны становиться травмой. Каждое задание должно быть продумано так, чтобы сохранить достоинство участника, даже если цель — изучение «слабых мест» услуги (а не участника!).
4. Условия проведения: физический и эмоциональный комфорт
- Физическая безопасность:
Избегайте длительных сессий без перерывов или с использованием неудобной мебели. Необходимость удовлетворения естественных потребностей тоже никто не отменяет. - Эмоциональная поддержка:
При тестировании продуктов для травмированных групп (например, ветеранов боевых действий или людей с другими физическими и когнитивными нарушениями) предусмотрите психологическую поддержку. Дорого? – Не беритесь за такие исследования. - Культурная чувствительность:
В некоторых культурах вопросы о неудачах считаются оскорбительными.
Отдельная статья о культурной чувствительности в UX Research – в разработке. Скоро покажем. Это будет интересно для тех, кто работает в UX-профессии на международном пространстве.
5. Работа с данными: конфиденциальность и честность
- Анонимизация:
Даже агрегированные данные могут деанонимизировать малую выборку. Решение — добавлять «шум» или использовать синтетические данные. - Хранение:
Удаляйте записи интервью и персональные данные после проекта. - Интерпретация:
Учитывайте контекст (например, языковой барьер влияет на оценку интерфейса).
Ситуация:
Бухгалтер был направлен руководством компании на тестирование новой версии бухгалтерской программы. Из-за сложности интерфейса он не справился с частью заданий. После сессии сотрудник начал опасаться, что результаты теста станут известны работодателю и поставят под сомнение его профессиональную компетентность.
Этические нарушения:
- Отсутствие добровольности: Он точно к нам пришел по доброй воле? Участие в исследовании под давлением руководства нарушает принцип добровольного согласия.
- Угроза конфиденциальности: Страх разглашения данных создает стресс и снижает доверие к процессу.
- Эмоциональный вред: Неудачи в тестировании могут восприниматься как личный провал, если не объяснена цель исследования.
Как предотвратить:
- Анонимность данных:
— Гарантируйте участнику, что его имя и должность не будут связаны с результатами.
— В отчётах используйте обезличенные формулировки: «Участник из финансового отдела» вместо «Бухгалтер Петрова». - Информирование руководства:
— Перед исследованием заключите с заказчиком соглашение о неразглашении персональных данных сотрудников.
— Объясните, что цель теста — улучшить продукт, а не оценить компетенцию персонала. - Декомпрессия:
— После сессии подчеркните: «Ваши трудности помогут нам сделать программу удобнее для всех, включая ваших коллег».
— Убедите участника, что его результаты останутся конфиденциальными.
Давление на сотрудников и отсутствие прозрачности подрывают доверие к исследованиям. Этичный подход требует:
- Полной анонимности для внутренних участников.
- Открытого диалога с заказчиком о границах конфиденциальности.
- Акцент на том, что тестируем продукт, а не людей.
6. Технологии и приватность: границы допустимого
- Биометрические данные (eye-tracking, пульс):
Требуется явное согласие и правила удаления данных. - ИИ-аналитика:
Алгоритмы на нерепрезентативных данных могут дискриминировать группы. - Скрытое наблюдение:
Запись экрана или аудио без согласия — нарушение этики. Нужно подписывать соглашение с респондентами по этом поводу.
7. Социальная ответственность: влияние на общество
- Инклюзивность:
Проектирование для всех групп, включая людей с инвалидностью и ветеранов. - Отказ от «темных паттернов»:
Не участвуйте в создании токсичных приёмов и продуктов из серии "400 относительно честных способов отъёма денег у граждан" имени незабвенного Остапа Бендера. - Поиск баланса отношений между Человеком и Машиной
Кейс: Электромобили будущего и перераспределение ответственности
На прошедшей недавно World Usability Day 2024 ваш покорный слуга, Дмитрий Сатин (руководитель UsabilityLab) и Александр Павлович (дизайн-директор компании «Атом») обсудили этические вызовы проектирования интерфейсов для автономного транспорта. Запись разговора здесь. Компания «Атом» разрабатывает электромобиль, где большая часть ответственности за безопасность переносится с водителя на автоматику:
- Система управляет скоростью, торможением, маршрутом;
- Интерфейс должен минимизировать когнитивную нагрузку, но максимизировать контроль в критических ситуациях;
- Дизайн определяет, как водитель взаимодействует с автоматикой: например, насколько понятны предупреждения о переходе в ручной режим.
Этические вопросы, которые возникают при проектировании подобных автомобильных систем:
- Ответственность за жизнь:
— Если алгоритм автоматики ошибется, кто виноват: разработчик, дизайнер или пользователь?
— Как спроектировать интерфейс, чтобы водитель не терял бдительность, но и не перегружался данными? - Тестирование безопасности:
— Можно ли допускать к тестам рядовых пользователей, если ошибка приведет к аварии?
— Как имитировать экстремальные ситуации без риска для участников? - Прозрачность решений со стороны автоматики:
— Должен ли интерфейс объяснять, почему система приняла то или иное решение (например, резко затормозила)?
— Как избежать «эффекта магического черного ящика», когда пользователь слепо доверяет алгоритму? Как сделать так, чтобы внимание и контроль сохранялись в тех случаях, когда это необходимо. Так же нужно аккуратно продумать, как в этом случае распределяется ответственность между сторонами.
Александр отметил, что современные системы знают о нас, пользователях, всё и задал вопрос — как не позволить системе знать о нас слишком много? Как сбалансировать это знание, чтобы обеспечить персональную мобильность в адекватном объёме, но при этом не вторгаться слишком глубоко туда, куда вторгаться не стоит? Согласен – вопрос очень тонкий, требующий всестороннего изучения.
На мой взгляд, также важно определиться с политикой передачи контроля (а по сути и ответственности за происходящее) от системы в сторону пользователя. Приходит на ум тут пример с детским велосипедом, к которому родители сначала доставляют дополнительные колеса, чтобы ребенок предолел страх и начал ездить, а потом по мере роста реальных навыков (и воспринимаемой самим ребенком способности) должны их вовремя снять, чтобы они не мешали последующему росту навыков. По аналогии с этим, думаю, надо действовать в случае более сложных, "взрослых" систем.
Решения:
- привлекать в команду профильных специалистов и внимательно рассматривать вопросы кибербезопасности
- создавать и описывать (возможно, отраслевую) политику передачи контроля над взаимодействием от машины человеку (и наоборот).
8. Пост-исследовательская этика: прозрачность и отчетность
- Публикация результатов:
Даже негативные выводы должны быть доступны заказчику и сообществу. - Право на забвение:
Участники могут потребовать удаления своих данных.
Пример: Открытое исследование доступности мобильного приложения от известной российской UX-Лаборатории улучшило отраслевые стандарты.
9. Взаимодействие со стейкхолдерами и экстренные ситуации
- Аутсорсинг:
Убедитесь, что подрядчики соблюдают этические нормы (например, справедливая оплата респондентов). - Конфликт интересов:
Фиксируйте давление на подтасовку данных и отказывайтесь от таких проектов (если можете себе такое позволить). - Экстренные протоколы:
Участник вправе прекратить сессию без объяснений. При угрозе (например, утечке конфиденциальных данных) немедленно остановите исследование. Невнимательные реcпы иногда "светят" свои пароли и логины во время тестов.
Итоговые рекомендации
- Этическая декларация:
Разрабатывайте для каждого проекта правила реагирования на дилеммы. - Тренинги для команды:
Моделируйте сложные сценарии (например, отказ участника или "засвечивание" конфиденциальных данных). - Тест публичности:
«Готовы ли вы открыто описать свои методы?» Если нет — пересмотрите подход.
Заключение
Этика в UX Research – это процесс постоянной рефлексии. Исследователи несут двойную ответственность: перед участниками, чьи данные и эмоции они используют, и перед обществом, которое страдает от неэтичных продуктов. Ключевой принцип – «Не навреди» – должен пронизывать каждый этап работы. Только так можно создать цифровую среду, уважающую права и достоинство каждого пользователя.
Меня зовут Роман Черных, я руковожу Русской Школой Сервисного Дизайна и преподаю User Experience Research&Design. Благодарю, что ознакомились с мыслями про вопросы этики в профессии UX-исследований. Если понравилось – оцените статью. Чтобы не пропускать новые статьи, подпишитесь на наш Дзен-канал. После перехода нажмите кнопку "Подписаться" в шапке профиля. Такие несложные действия – хорошая мотивация для нас, чтобы продолжать для Вас готовить такие материалы.
Буду рад услышать вашу точку зрения – дополнения или аргументированные возражения, в комментариях. Если мы что-то важное упустили или ошибаемся.
Если вас интересует тема человекоориентированного проектирования и инноваций для людей (а не для "галочки"), приходите к нам, в телеграм-чат Русской Школы Сервисного Дизайна.
Если вы или ваши коллеги:
- хотите учиться по нашей авторской методологии на групповых занятиях, в индивидуальном или корпоративном формате по темам User Experience Research и Design;
- организуете мероприятие, где требуется спикерская поддержка специалистов Школы или моё участие в качестве ведущего/модератора;
- планируете получить консультацию по продуктовому проекту или процессу;
- желаете оценить свой текущий потенциал, перспективы профессионального роста, тактику UX-обучения и карьерную траекторию;
Подпишитесь на нас, чтобы видеть анонсы UX-мероприятий:
Rutube-канал РШСД
Телеграм-канал РШСД
Youtube-канал РШСД