Могут ли технологии повлиять на человеческую мораль?
Это не эзотерический контрольный вопрос из курса философии в вузе, а реальная, растущая проблема ведущих технологов и мыслителей. Такие технологии, как социальные сети, смартфоны и искусственный интеллект, могут создавать масштабные моральные проблемы, и эксперты по технологиям в частности и общество в целом изо всех сил пытаются справиться с этими проблемами.
С одной стороны, технологии могут дать нам более точную информацию о последствиях наших действий, например, когда мы используем Интернет для исследования того, как уменьшить наше воздействие на окружающую среду. В прошлом такая информация могла быть недоступна или невозможна, но сегодня мы можем легко вооружиться данными, которые помогают нам делать выбор, который мы считаем более нравственным.
С другой стороны, технологии могут выявить наше худшее поведение. Платформы социальных сетей могут предоставлять нам контент, который приводит нас в ярость или угнетает, повышая (или уменьшая) вероятность того, что мы предпримем какие-либо аморальные действия (безнравственные), основанные на наших чувствах. Эти платформы легко могут использоваться злоумышленниками для совершения различных "темных дел".
Не говоря уже о том, что сами технологические компании могут использовать свои творения таким образом, чтобы намеренно или случайно причинить реальный вред.
Одним из ярких примеров того, как технологии могут влиять на мораль, является Facebook. Платформа социальных сетей компании облегчает нам общение с людьми и проблемами, которые нам небезразличны, что позволяет совершать моральные действия, например, поддерживать друга, которому трудно, или собирать деньги для важного дела.
Однако та же самая функциональность, которая позволяет делать нравственный выбор, также позволяет делать аморальный выбор. В октябре 2021 года в Конгрессе США бывшая сторудница Facebook Фрэнсис Хауген свидетельствовала против компании, которая сознательно предлагала своим пользователям контент, содержащий разжигание ненависти и дезинформацию, поскольку это увеличило вовлеченность. И погоня за прибылью для компании обернулась трагедиями психологического или даже физического плана для людей.
По словам Хауген, технология компании использовалась так же для раздувания пламени геноцида в Мьянме. А это уже буквально стоило многим людям жизней.
Технология без морали — варварство; мораль без технологий бессильна. — Фриман Дайсон.
«Результатом стало больше разногласий, больше вреда, больше лжи, больше угроз и больше борьбы», — сказала Хауген Конгрессу. «В некоторых случаях эти опасные онлайн-разговоры приводили к реальному насилию, которое причиняло вред и даже убивало людей».
Такие примеры, как действия Facebook, заставляют экспертов все больше беспокоиться о связи между нашими технологиями и нашим моральным поведением (или его отсутствием). Недавний пример, когда Meta (Facebook) разрешила размещать в своих соцсетях Facebook и Instagram призывы к насилию в отношении российских военных. А это уже, на минуточку, агрессивная и преступная политика, напрямую ведущая к разжиганию ненависти и вражды к россиянам. И действия компании — еще одно свидетельство как технологии могут стать настоящим оружием в руках беспринципных и безнравственных дельцов. Впрочем, понятно, что Meta не самостоятельно принимала такое решение. Подтверждением этому может случить то, что слушания по делу Facebook в Конгрессе США, где свидетелем выступала Хауген, так ни к чему и не привели.
На самом деле, в наши дни вопрос должен заключаться не в том, « Могут ли технологии повлиять на нашу мораль?», а в том, « Как технологии влияют на нашу мораль?»
Моральные опасности технологии
Нравственное поведение начинается в мозгу, в том, как мы думаем.
Технологии могут влиять на нашу нейрохимию. В одном из многих исследований на эту тему, проведенном при поддержке Национального института здоровья, было обнаружено, что Instagram напрямую влияет на нейрохимию старшеклассников, стимулируя центр вознаграждения в мозгу, когда фотографии, которые они размещают, нравились.
«Изменение определенных аспектов нашей нейрохимии с помощью технологий обязательно повлияет на наше моральное поведение», — говорит Жоао Фабиано, приглашенный научный сотрудник Центра пепла Гарвардского университета в Школе государственного управления им. Кеннеди, который исследует моральные последствия новых технологий. Эти воздействия могут варьироваться от побуждения нас к принятию положительных моральных решений до побуждения нас к принятию плохих решений.
Это не означает, что мы невиновны в своем поведении, потому что технологии взламывают наш мозг. Это означает, что технологии оказывают глубокое влияние на то, как мы думаем и действуем, влияние, которое мы только начинаем понимать.
Во-первых, технологии могут сознательно использоваться аморальными субъектами во вред, либо закрывая глаза на вред, либо преднамеренно используя платформу для создания негативных результатов.
«Если я хочу сделать что-то неэтичное, технологии могут предоставить мне более качественную информацию и лучшие инструменты для достижения моих злонамеренных целей, предоставляя мне возможности, которые я бы не использовал без технической помощи», — говорит Жан-Франсуа Боннефон, директор по исследованиям. во французской Тулузской школе экономики, изучающей моральную психологию и искусственный интеллект (ИИ).
По словам Боннефона, технологии также можно использовать для перекладывания ответственности за принятие моральных решений. «Например, я могу решить купить автоматизированное транспортное средство, которое всегда ставит мою безопасность на первое место, даже если это непропорционально увеличивает риск для других участников дорожного движения», — говорит он. «Возможно, я чувствовал себя виноватым за то, что вел машину таким образом, но я не чувствую себя виноватым, если машина делает это от моего имени».
Споры о влиянии технологий на мораль становятся еще более мрачными, если учесть, что происходит, когда они усиливают наши собственные моральные недостатки.
«Как и любая технология, социальные сети просто позволяют нам делать то, что мы уже сделали, в большей степени», — говорит Пол Тейлор, пастор библейской церкви «Пенинсула» в Пало-Альто, Калифорния. Тейлору не чужды моральные затруднения, создаваемые технологиями; прежде чем стать пастором, он работал в сфере разработки программного обеспечения в Сан-Франциско, в какой-то момент в качестве менеджера по продуктам в технологическом гиганте Oracle.
Тейлор говорит, что люди склонны представлять себя в определенном свете, раскрывая одну информацию и скрывая другие детали. «Но выбор, который мы делаем в отношении того, какую информацию мы раскрываем, в конечном итоге существенно влияет на нас. Дизайн технологий социальных сетей стимулирует определенную информацию и дестимулирует другую информацию».
Эти технические решения в конечном итоге формируют выбор, который мы делаем в отношении того, как представить себя, что, в свою очередь, формирует то, как мы воспринимаем себя и других людей.
А что происходит, когда машины сами говорят нам, как мы должны действовать?
«Мы должны уделять больше внимания тому, как [искусственный интеллект] формирует наше моральное поведение», — говорит Нильс Кёбис, научный сотрудник Института человеческого развития им. Макса Планка, изучающий этику и ИИ.
Например, возьмем голосового помощника Alexa от Amazon. Согласно исследованию Кёбиса, главный научный сотрудник Amazon Рохит Прасад говорит, что компания видит роль Alexa в переходе от голосового помощника к доверенному советнику. «Вскоре люди могут не только попросить его включить их любимую музыку или включить свет, но и проконсультироваться с ним, прежде чем принимать решения с моральными последствиями», — говорит Кёбис.
«Создатели технологий могут быть более ответственными в своих усилиях, если у них есть обоснованное понимание того, что значит быть человеком», — говорит Тейлор.
Кёбис и другие исследователи «провели крупномасштабный, финансово стимулированный, предварительно зарегистрированный эксперимент», чтобы оценить, как машины влияют на нашу мораль, проверяя, могут ли советы, генерируемые ИИ, развращать людей. Они попросили участников исследования сыграть в игру, в которой им давали нечестные советы о том, как обмануть и добиться успеха, иногда от людей, а иногда от ИИ. Участники исследования приняли нечестный совет и солгали, чтобы выиграть игру.
Согласно исследованию, «эффект совета, сгенерированного ИИ, был неотличим от эффекта совета, написанного человеком». В исследовании делается вывод, что люди могут быть так же сильно испорчены системами ИИ, как и другими людьми.
Двигайтесь быстро и ломайте вещи
Одна из причин, по которой технология вызывает неясные моральные затруднения, заключается в том, что ее создатели не всегда учитывают ее последствия.
«Для многих инструментов ИИ существует менталитет «сначала внедряй инновации, а потом проси прощения», — говорит Кёбис. «Стресс-тестирование, может ли технология повлиять на этическое поведение людей, и если да, то каким образом, является важным шагом». Одним из способов сделать это было бы предоставление исследователям и организациям гражданского общества возможности проверять код, выпущенный крупными технологическими игроками, но это легче сказать, чем сделать, говорит Кёбис.
Многие компании используют проприетарные данные и код, которые они тщательно охраняют. Это затрудняет понимание того, как работает их технология, и определение возможных моральных ловушек, которые она может создать. Это стало очевидным в показаниях Хауген перед Конгрессом, в ходе которых она выступала за регулирование алгоритмов Facebook. Однако для принятия такой политики регулирующим органам потребуется беспрецедентный доступ к алгоритмам, коду и данным Facebook.
Такие проекты, как DataSkop от Algorithm-Watch, пытаются обойти эти ограничения. С помощью DataSkop пользователи могут передавать данные со своих настольных или портативных компьютеров, чтобы помочь исследователям понять, как работают алгоритмические системы принятия решений. В проекте осенью 2021 года DataSkop использовался для анализа предоставленных пользователями данных, чтобы выявить закономерности в алгоритме рекомендаций и результатов поиска YouTube во время сезона предвыборной кампании в Германии, а также роль, которую играет персонализация.
Еще один способ решить вопрос о том, как технология влияет на мораль, — это задать более правильные вопросы до того, как технология будет разработана.
«Философия разработала инструменты для решения общих вопросов, которые должны задавать новаторы», — говорит Фабиано. Эти инструменты включают фундаментальные вопросы о том, что лучше для будущих поколений, и кто несет ответственность за вред, причиняемый технологиями.
Это также означает, что нужно подумать о том, что значит быть человеком, — говорит Тейлор. «Создатели технологий могут быть более ответственными в своих усилиях, если у них есть обоснованное понимание того, что значит быть человеком», — говорит он.
Это означает задавать такие вопросы, как: Какие аспекты нашей человечности находятся под угрозой из-за технологий? Какие аспекты слишком важны, чтобы ими жертвовать? Какие идеалы мы хотим взращивать? Каких искушений мы хотим избежать?
«Ответы на эти вопросы послужат основой для разработки технологий, которые окажут положительное влияние на наше поведение».
Если мы доберемся до этого, мы можем увидеть технологию, в которой мораль является особенностью, а не ошибкой.
By Logan Kugler
Communications of the ACM