Этические вопросы искусственного интеллекта оказываются гораздо сложнее технических ограничений. Они затрагивают фундаментальные аспекты человеческого существования — от справедливости и равенства до природы сознания и личности. Прежде чем ответственно развивать ИИ-технологии, мы должны решить эти вопросы. 1. Когнитивные искажения переходят от людей к машинам Исследования в области когнитивной психологии показывают, что компьютеры могут наследовать наши когнитивные искажения в зависимости от способа их обучения. Как объясняет Мария Фаликман: «Если мы будем строить искусственные нейронные сети и учить их на примерах, содержащих когнитивные искажения, мы сформируем у компьютера когнитивные искажения». Корень этических проблем ИИ – в данных, которые они получают и на которых учатся. В одной из интерпретаций, искусственный интеллект – не что иное, как «зеркало» общества, которое отражает все, что было сгенерировано пользователями интернета. Нейронные сети учатся на тех примерах, которые мы им предоставляем, и если эти данные содержат человеческие предрассудки и стереотипы, алгоритм воспроизведёт их в своих расчетах. В итоге ИИ может совершать ошибки в сфере принятия решений— от подбора персонала до диалога с клиентом. «Если мы будем учить сеть на тех примерах, которые не будут содержать в себе результатов знаменитых канемановских эвристик репрезентативности, то, скорее всего, наша сеть этих ошибок делать не будет» Проблема алгоритмической предвзятости имеет глубокие корни в самой природе машинного обучения. Когда системы ИИ обучаются на исторических данных, они неизбежно воспроизводят предрассудки прошлого. Например, если модель для найма персонала обучается на данных компании, где исторически предпочтение отдавалось мужчинам, она может научиться дискриминировать женщин-кандидатов. Больше фактов про человеческий мозг и нейросети, сделанные по его образу и подобию, читайте в интервью с доктором психологических наук Марией Фаликман. 2. Интеллектуальные агенты требуют новых этических рамок Развитие интеллектуальных агентов — систем, способных самостоятельно действовать в окружающей среде, — создаёт принципиально новые этические вызовы. Константин Яковлев подчёркивает, что современные интеллектуальные агенты выходят за рамки простых реакций «стимул — реакция»: «Интеллектуальный агент должен уметь использовать знания для планирования, то есть выстраивания цепочки действий, которые приведут его к желаемой цели». Этические вопросы возникают, когда такие агенты начинают взаимодействовать с людьми или другими ИИ-системами в мультиагентной среде. Кто несёт ответственность за действия автономного агента? Как сделать так, чтобы цели агента соответствовали человеческим ценностям? Эти и другие вопросы актуальны в контексте развития мощного искусственного интеллекта, который интегрирует различные методы машинного обучения. «Академический, исследовательский интерес представляет создание таких систем управления, которые бы вбирали в себя все наработки в области обучения, планирования, распознавания образов, чтобы получился универсальный боец» Опасность заключается в том, что интеллектуальные агенты способны к делиберативным процессам — рассуждению, которое становится звеном между наблюдением и действием. Если встроить такие процессы в мультиагентную систему, куда могут входить и люди, то их взаимодействие будет порождать много вопросов. Сможет ли ИИ и человек «совещаться» во время рассуждений? Будут ли эти делиберативные процессы контролироваться изнутри? Больше о перспективах интеллектуальных агентов читайте в интервью с кандидатом физико-математических наук Константином Яковлевым. 3. ИИ создаёт новые формы неравенства в образовании и трудовых отношениях Цифровизация и внедрение ИИ в образование и трудовые процессы катализируют этические дилеммы, связанные с доступностью и точностью нейросетей. Дмитрий Крутов отмечает, что «цифровые технологии и искусственный интеллект стремительно меняют рынок труда, постепенно автоматизируя всё больше задач», но при этом доступ к новым технологиям и возможностям переобучения распределён неравномерно. Возникает парадокс: с одной стороны, ИИ обещает персонализацию образования и повышение его эффективности, с другой — может усугубить существующее неравенство. Те, кто имеет доступ к качественному образованию и технологиям, получают дополнительные преимущества, в то время как другие группы населения рискуют остаться за бортом технологического прогресса. Особенно это касается переобучения взрослых, где барьер для входа в IT значительно поднялся. «Таким образом, наиболее востребованными специалистами будут те, кто умеет интегрировать цифровые решения в сложные процессы и взаимодействовать с ними не как с конкурентами, а как с партнёрами» Нейропластичность взрослых и способность к обучению в зрелом возрасте становятся критически важными факторами. Исследования показывают, что тревожность значительно снижает способность мозга адаптироваться к новым задачам. Нейропластичность — способность мозга адаптироваться к новым задачам, восстановливать нейронные связи и формировать новые навыки — значительно снижается при высоком уровне стресса и тревоги. Если заинтересовала тема нейропластичности и будущих профессий — читайте лонгрид с Дмитирием Крутовым и смотрите выпуск нашего подкаста «Образование. Нейропластичность.Технологии». 4. Проблема цифрового бессмертия и этики виртуальных личностей Развитие технологий цифрового бессмертия поднимает фундаментальные этические вопросы о природе человеческой личности. Алексей Турчин объясняет: «Цифровые копии могут стать субъектом неприятного опыта: к примеру, цифровые копии бывших партнёров могут стать жертвами бесконечного абьюза». Цифровое бессмертие представляет собой не традиционное продление жизни, а создание «бессрочной цифровой копии человека», включающей сохранение данных о личности — воспоминаний, сознания, предпочтений — в цифровой форме. В отличие от религиозных представлений о бессмертии души, цифровое бессмертие скорее представляет собой "заморозку" личности в данных, чем продолжение её жизни в духовном смысле. «Люди регулярно создают модели других людей: во сне вы нередко видите кого-то из окружающих, но этот процесс происходит автоматически и бессознательно. Сознательный подход к этому процессу порождает большое количество вопросов и сложностей» Цифровая некромантия — практики использования искусственного интеллекта и робототехники для воссоздания или моделирования присутствия умерших людей — уже становится реальностью. Компании предлагают услуги по созданию чат-ботов на основе данных умерших, а этические проблемы цифрового бессмертия выходят далеко за рамки технических решений. Кто владеет правами на цифровую копию личности? Имеет ли она право на защиту от злоупотреблений? А если оригинал не давал согласие на создание цифрового клона? Возможно, в будущих завещаниях люди будут заверять у нотариуса запрет на использование их личности в качестве ИИ-бота. Больше о цифровом бессмертии читайте в лонгриде с основателем проекта Digital Immortality Now Алексеем Турчиным. 5. Ограничения ИИ в рассуждениях создают ложные ожидания и проблему объяснимости Современные исследования выявляют критические ограничения ИИ, которые имеют важные этические последствия. Михаил Бурцев подчеркивает: «Они не умеют рассуждать». Пользователи завышают свои ожидания в отношении ИИ и неправильно трактуют его область компетенции. Даже исследователи до сих пор переоценивают способности современных языковых моделей к настоящему мышлению. Chain of thought и другие подходы «лишь помогают лучше сфокусироваться на тех данных, которые наиболее релевантны для решения задачи», но не учат модель действительно рассуждать. Такой опрометчивый подход дает сбой, когда от ИИ ожидают человекоподобного анализа и верных выборов — с точки зрения эффективности и морали. «...Внутри своего ответа модель может порой генерировать довольно противоречивые утверждения. Она не умеет это верифицировать. Модель просто извлекает что-то из памяти» Проблема «черного ящика» в ИИ поднимает вопрос о развитии объяснимого искусственного интеллекта (Explainable AI, XAI). Как отмечают эксперты, зачастую не только конечные пользователи, но и сами разработчики не могут точно определить, как именно модель машинного обучения пришла к тем или иным выводам. Объяснимый ИИ должен прогнозировать точно, но вместе с тем быть легко считываемым. Прозрачность важна в критических областях — медицине, финансах, судопроизводстве, где решения ИИ могут значительно влиять на жизнь людей. Если вам интересна тема создания сверхмощного искусственного интеллекта — читайте интервью с кандидатом физико-математических наук Михаилом Бурцевым.
Этические вопросы искусственного интеллекта оказываются гораздо сложнее технических ограничений. Они затрагивают фундаментальные аспекты человеческого существования — от справедливости и равенства до природы сознания и личности. Прежде чем ответственно развивать ИИ-технологии, мы должны решить эти вопросы. 1. Когнитивные искажения переходят от людей к машинам Исследования в области когнитивной психологии показывают, что компьютеры могут наследовать наши когнитивные искажения в зависимости от способа их обучения. Как объясняет Мария Фаликман: «Если мы будем строить искусственные нейронные сети и учить их на примерах, содержащих когнитивные искажения, мы сформируем у компьютера когнитивные искажения». Корень этических проблем ИИ – в данных, которые они получают и на которых учатся. В одной из интерпретаций, искусственный интеллект – не что иное, как «зеркало» общества, которое отражает все, что было сгенерировано пользователями интернета. Нейронные сети учатся на тех примерах, которые мы