Хотя вопросы этики остаются актуальными, прогресс в сфере искусственного интеллекта открывает возможности для улучшения социальных условий.
С момента дебюта ChatGPT мы стали свидетелями всплеска новаторских продуктов на основе искусственного интеллекта, включая компьютерные программы, способные имитировать стиль письма вашего любимого автора, и программы, которые могут создавать изображения, воссоздающие манеру известных художников. Это вызвало общественные дебаты и опасения о том, как ИИ будет влиять на будущее труда, образования, искусства, культуры и многих других аспектов нашего бытия.
Как отмечает Керстин Харинг, доцент кафедры информатики в Школе инженерии и информатики Дэниела Феликса Ричи, идея искусственного интеллекта, которая возникла еще в 1950-х годах, далеко не нова. «Математическая основа была заложена давно», - говорит Харинг. «Однако нам требовалась соответствующая вычислительная мощность. И в течение долгого времени у нас не было необходимого объема данных для эффективной работы этих масштабных моделей».
Потребительские продукты и услуги, такие как ChatGPT, могут выглядеть как поразительные новинки, но технология, стоящая за ними, уже долгое время незаметно влияет на нашу жизнь. Искусственный интеллект используется во всем – от борьбы с мошенничеством по кредитным картам и формирования цен на авиабилеты до алгоритмов рекомендаций Netflix и фильтрации контента в социальных сетях, - объясняет Стивен Хааг, профессор практики в Бизнес-колледже Дэниэлса.
Автономные транспортные средства, ИИ-генераторы изображений, автоматизированные бухгалтерские системы и другие программные решения, основанные на искусственном интеллекте, являются лишь началом волны инноваций, ставших возможными благодаря последним достижениям в области вычислительной техники и обработки данных. Хотя эти новшества могут вызывать опасения, они также открывают перед учеными из различных областей знаний целый арсенал новых инструментов для исследований.
Моральные нормы и предвзятость в сфере машинного обучения
Искусственный интеллект охватывает множество технологий, однако особое внимание привлекает машинное обучение — программы, способные выявлять закономерности в данных, создавать на их основе статистические модели для прогнозирования или генерации новой информации, что делает его одним из наиболее распространенных направлений. В рамках своих предыдущих исследований Керстин Харинг и ее команда разработали Build-A-Bot, интерактивную систему для создания роботов. Теперь Харинг намерена использовать данные, собранные от пользователей этой платформы, для обучения системы машинного обучения, чтобы создавать роботов, которые люди смогут легче узнавать и с которыми им будет удобнее взаимодействовать.
Искусственный интеллект обучается различными методами: обучение с учителем, когда человек помогает ИИ идентифицировать закономерности; обучение с подкреплением, где ИИ сам оценивает правильность своих действий; и обучение без учителя, при котором ИИ самостоятельно анализирует большие массивы данных. Каждый из этих методов имеет свои особенности и применения, но, как подчеркивает Харинг, все они могут нести в себе этические риски, если их разработка не будет вестись осмотрительно. «Внедрение этических принципов в ИИ представляет собой сложную задачу», - отмечает она.
Кроме того, для компьютера процесс обучения распознаванию новых паттернов является сложной задачей, требующей доступа к обширным наборам данных.
Материалы для обучения искусственного интеллекта часто извлекаются из открытых интернет-источников или используются без согласия авторов, что приводит к созданию ИИ-сгенерированных текстов и изображений, удивительно схожих с оригинальными работами, на которых они были обучены. Это порождает дискуссии о нарушении авторских прав и интеллектуальной собственности. В то время как судебные процессы в этой области ещё предстоят, отсутствуют чёткие регуляторные или законодательные рамки, касающиеся использования данных для ИИ. Харинг подчеркивает, что ИИ обучается распознавать паттерны на основе существующих данных, что может привести к усилению существующих предвзятостей. «Мы живем в мире, где уже существуют предубеждения, и данные, которые мы генерируем, несут в себе эти предвзятости», - говорит Харинг. «ИИ, обучаясь на таких данных, может закреплять и усиливать эти предубеждения, что становится серьёзной этической проблемой».
Как и любой другой технологический продукт, искусственный интеллект не существует в изоляции. Для успешного внедрения ИИ и справедливого учета этических аспектов необходимы многообразные междисциплинарные команды, включающие исследователей, разработчиков и пользователей. Они должны тщательно рассматривать источники обучающих данных, учитывать социальные модели, отраженные в этих данных, и осознавать реальное воздействие применения ИИ на жизнь людей.
Беспокойство о том, что искусственный интеллект может привести к глобальной катастрофе и радикально изменить нашу жизнь, пока что выглядит преувеличенным, особенно учитывая текущий уровень технологического развития, утверждает Хааг. Тем не менее, ИИ несомненно окажет глубокое влияние на сферы образования, труда, транспорта, здравоохранения и многие другие аспекты нашего бытия.
«Мой взгляд на ситуацию базируется на трех аспектах: производительности, результативности и инновациях. И, по моему мнению, именно инновационный потенциал в этой области вызвал беспокойство у многих», - отмечает он. «Мы станем свидетелями изменений в различных секторах, где ИИ возьмет на себя определенные функции, но не все», - добавляет он.
Для Хаага наибольший интерес представляет возможность использования ИИ в умных домах, персонализированном образовательном программном обеспечении, а также в медицинских исследованиях и здравоохранении, включая текущее использование ИИ исследователями из DU для борьбы с проблемами, такими как загрязнение воздуха, инфекционные заболевания и злоупотребление психоактивными веществами, что кажется ему более значимым, чем беспокойство по этому поводу.
Создание модели качества воздуха в режиме реального времени
Мелкодисперсные загрязнители в атмосфере могут привести к серьезным проблемам со здоровьем, включая респираторные и сердечно-сосудистые заболевания, а также к увеличению риска преждевременной смерти. Несмотря на то, что учреждения, такие как Агентство по охране окружающей среды, проводят мониторинг качества воздуха, предоставляемые ими данные зачастую касаются больших территорий и обновляются не чаще одного раза в день. Это создает трудности в обеспечении защиты наиболее уязвимых слоев населения, учитывая, что состояние воздуха может меняться каждый час в разных районах. Доцент кафедры географии и окружающей среды Цзин Ли применил методы машинного обучения для создания высокоточной системы мониторинга качества воздуха в режиме реального времени, предназначенной для района метрополитена Денвера.
Интеграция доступных датчиков качества воздуха с алгоритмами машинного обучения, в том числе использование графов для анализа пространственных данных, применение LSTM (Long Short-Term Memory) для учета временных изменений и нейронных сетей для включения экологических и социальных данных, позволяет более точно и своевременно мониторить и прогнозировать качество воздуха с улучшенной географической точностью. Эффект от использования системы ощущается незамедлительно. "Точные прогнозы уровня мелких частиц PM2.5 могут помочь людям, особенно страдающим от респираторных заболеваний или долгосрочных последствий COVID, предпринять необходимые меры для минимизации воздействия, что способствует улучшению здоровья", - отмечает Ли. В предыдущих исследованиях Ли также была разработана модель, моделирующая распространение COVID-19 по районам.
Инициативы по противодействию злоупотреблению наркотиками в среде молодёжи и бездомных
В дополнение к мониторингу и предсказанию экологических и биологических явлений, исследователи из DU выявляют полезность ИИ в адресации социальных вызовов. Анамика Барман-Адхикари, доцент школы социальной работы, создала систему машинного обучения, которая ассистирует социальным работникам в организации групповых вмешательств, направленных на борьбу с наркотической зависимостью среди молодежи без определенного места жительства.
Обычно такие программы включают в себя группы поддержки, ведомые сверстниками, которые формируются без определенной системы и иногда способствуют освоению девиантного поведения, когда участники перенимают и повторяют негативные модели поведения друг друга. Используя анализ социальных связей и индивидуальных моделей поведения, ИИ-система, разработанная Барман-Адхикари, прогнозирует исходы для каждой возможной групповой динамики и определяет наиболее оптимальный состав группы. Группы, сформированные с помощью ИИ, продемонстрировали почти 60-процентное уменьшение нежелательных моделей обучения по сравнению с теми, что были собраны случайным образом.
Ранее Барман-Адхикари применяла искусственный интеллект для анализа вероятности употребления наркотиков, основываясь на диалогах и постах в Facebook. ИИ-алгоритм демонстрировал 80% точность в определении употребления наркотиков, в то время как традиционные статистические методы показывали лишь 30% точности. Барман-Адхикари уверена, что ИИ может служить мощным инструментом для сегментации целевых групп, что позволит исследователям и социальным работникам более эффективно распределять свои ограниченные ресурсы.
В свете обнадеживающих результатов своих и других последних исследований, Барман-Адхикари утверждает, что при тщательном подходе к разработке и применению инструментов на основе искусственного интеллекта, исследователи и политики смогут эффективнее предотвращать усиление социальных предрассудков и другие негативные эффекты. "Есть основания для некоторых опасений," - говорит она. "Мы должны быть более информированы о возможностях этих технологий и настаивать на усилении их регулирования. Однако, если использовать эту технологию разумно, я убеждена, что она имеет потенциал кардинально улучшить нашу жизнь."
Материал данной статьи основан на содержании зимнего номера журнала Университета Денвера 2024 года.