Найти тему
Октагон.Медиа

Разработчики ИИ задумались об этических проблемах

Иллюстрации к тексту: нейросеть Midjourney и Анна Бабич
Иллюстрации к тексту: нейросеть Midjourney и Анна Бабич
Бесконтрольное развитие ИИ закончится гибелью человечества

Генеративный искусственный интеллект стал трендом 2023 года. После начала массового использования нейросетей в повседневной жизни остро встали вопросы этики и безопасности. Их сейчас поднимают разработчики, правоведы и даже философы. Решать возникающие проблемы эксперты предлагают по-разному – от развития новых обучающих курсов вроде этики искусственного интеллекта до полного запрета ИИ на уровне государств.

Появление нейросетей и генеративного искусственного интеллекта – закономерное следствие развития технологий. Нейросети способны значительно облегчить труд программистов, исследователей, учёных, взяв на себя рутинные задачи. С их помощью можно изучать и открывать новые лекарства, проводить опыты.

Однако выход технологий в широкие массы может серьёзно исказить созидательную сторону искусственного интеллекта. В ноябре 2023 года в мировых СМИ широко освещалась история со скандалом в школе Вестфилд Хай (штат Нью-Джерси, США), ученицы которой стали объектами фальшивых порнографических изображений, созданных с помощью ИИ. Сервисы генерирования изображений доступны подросткам во всех странах, и сколько подобных инцидентов уже произошло и произойдёт в будущем, неизвестно.

-2

Этические проблемы развития ИИ осознают и сами разработчики. В декабре тема этики искусственного интеллекта стала одной из главных на крупной конференции IT-сообщества YaTalks, которую проводит «Яндекс» (по данным организаторов, в мероприятии каждый день участвовало офлайн от 4,6 до 6,5 тысяч специалистов отрасли и более 16 тысяч человек побывали на ней онлайн).

– Вспомним, как начинался интернет. В то время интернет представлял собой своего рода клуб единомышленников. Все наши сервисы, будь то форумы или что-то ещё, существовали внутри небольших сообществ. Однако со временем интернет вырос. Весьма важные аспекты нашей повседневной жизни, такие как почта и образование, оказались доступными в онлайн-пространстве. Люди стали обращаться к интернету для лечения и получения информации, которую раньше мы получали в реальной жизни. Да и общение перекочевало в интернет. Важность интернета для нас сложно оценить, но уже понятно, что он корректирует нашу повседневность, – заявил на конференции директор по развитию технологий искусственного интеллекта в компании «Яндекс» Александр Крайнов.

Оказалось, что поиск – это нечто важное, фундаментальное для человека.

Это его последний союзник в самых сложных ситуациях. Именно поиск выбирает то, что действительно важно.

– Когда мы изучали, как люди ведут себя в поиске, мы обнаружили, что очень мало людей переходит на вторую страницу. Сейчас это сложно заметить, так как всё это бесконечные ленты, но люди внимательно рассматривают лишь начало поисковой выдачи. И то, что они там находят, конечно же, определяет решение их проблем. И это серьёзная проблема, – отмечает Александр Крайнов.

Сегодня люди даже лечиться предпочитают в интернете, а не обращаются за медицинской помощью. Когда у человека возникают проблемы со здоровьем, он в 100 процентах случаев ищет информацию в сети, а к врачу идёт не всегда, потому что это простой и быстрый способ получить ответы на свои вопросы.

– И хотя мы можем обвешать весь поиск дисклеймерами, что самолечение не рекомендуется, что нужно проконсультироваться с врачом, люди им не следуют. Один из наших любимых примеров – поисковый запрос о том, как лечить рак с помощью соды. И как в таком случае действовать поисковой системе? Как разумным людям нам хочется дать ответ: «Друг, не валяй дурака. Иди к врачу или читай нормальные источники». Но делать этого нельзя, ведь мы тогда за человека начинаем решать, что хорошо, а что плохо.

«Мы зеркало интернета: что спросили – мы показали. Но с другой стороны, когда ты осознаёшь, что через тебя проходят миллионы таких запросов, понимаешь, что нужно что-то предпринимать».
Александр Крайнов, директор по развитию технологий искусственного интеллекта в компании «Яндекс»

– Для себя мы решили, что есть буквально несколько категорий, которые угрожают жизни и здоровью людей, поэтому мы позволяем себе вмешиваться в ранжирование, чтобы понизить – не убрать, а именно понизить – выдачу результатов, которые несут явную прямую угрозу, – заключает Александр Крайнов.

Развитие генеративного ИИ ещё больше усложняет для разработчиков этические трудности. Поскольку ответ на запрос пользователя приходит без ссылок на источник и является скомпилированным, предугадать то, какая информация там окажется, крайне сложно. Между тем люди могут принять её за истину.

-3

По словам экспертов, помимо этических аспектов, развитие нейросетей, построенных на больших языковых моделях (LLM), влечёт ещё и сложности с обеспечением безопасности.

– Например, ChatGPT обучалась на открытых данных из сети – порядка 300 миллиардов слов из различных источников, включая веб-сайты, статьи, социальные сети, книги и всё, до чего могли дотянуться поисковые краулеры. Кроме того, ChatGPT постоянно получает огромный поток данных от пользователей сервиса, которые тоже используются в совершенствовании её модели ответов. Нет инструментов для удаления ваших данных из нейросети. Не очень понятно, как OpenAI вообще использует те данные, которые собирает благодаря взаимодействию с обычными пользователями и в рамках коммерческого использования в компаниях, – рассказывает «Октагону» стратегический директор по IT, продуктам и сервисам компании PRO32 Руслан Сулейманов.

Как сообщает собеседник, недавно сотрудники Google DeepMind продемонстрировали уязвимость в ChatGPT, которая на безобидный запрос выдавала конфиденциальные данные.

Подобные утечки могут быть крайне опасны, так как люди советуются с нейросетью по очень чувствительным и конфиденциальным вопросам.

Например, финансовый директор может спросить, какой тип бюджета будет предпочтительным, если взять за основу реальные данные о поступлениях и расходах за прошлый год, а юрист компании – попросить ChatGPT составить оптимальный текст запроса для поставщика на основе данных действующего договора. Вся эта информация осядет в недрах большой языковой модели, и никто точно не знает, как она будет использована. Утечка таких сведений может стоить компании репутации или вообще привести к её закрытию.

– Я бы посоветовал относиться к передаче данных в любые нейросетевые сервисы как к эквиваленту публикации этих данных в социальной сети. То есть если вы что-то готовы опубликовать у себя на странице в соцсети, то можете использовать эти данные и в нейросетевых сервисах типа ChatGPT, – говорит Руслан Сулейманов.

Существуют сложности и в правовом регулировании использования нейросетей.

По свидетельству основателя Mirey Robotics Андрея Наташкина, повсеместное использование ИИ для создания графики, текстов и логотипов связано с желанием сэкономить, но может обернуться финансовыми рисками.

– Всегда встаёт вопрос, насколько законно использовать контент, созданный нейросетью, для коммерческих целей. И это очень тонкий момент. В LogoliveryAI, например, прописано, что мы можем использовать готовый логотип в коммерческих целях. А при использовании бесплатной подписки Midjourney все изображения принадлежат сервису. Вы можете их использовать с указанием источника в личных целях, а вот коммерческое использование запрещено. Поэтому нужно читать правила площадки, указывать источник и не использовать контент, сгенерированный нейросетью, в продающих постах или текстах. Иначе будет достаточно сложно доказать, что вы не получаете какую-то выгоду от используемого контента, – поясняет Андрей Наташкин.

-4

Специалисты замечают, что в России власти в целом довольно позитивно смотрят на распространение искусственного интеллекта. В принятых стратегиях прослеживается мысль, что это глобальная тенденция, которой нужно следовать. В Москве в 2020 году сроком на пять лет введён экспериментальный правовой режим, обеспечивающий разработку и внедрение технологий ИИ. Однако практически нигде не обсуждаются этические риски, связанные с развитием технологий.

– Сейчас есть ощущение какой-то гонки технологий, в которой если не участвуешь, то, проигравши, как будто теряешь всё, и страну в том числе. С другой стороны, любая технология, будь то колесо, автомат Калашникова или ChatGPT, может попасть не в те руки и использоваться вопреки интересам большинства, в том числе вопреки государственным интересам. Я думаю, мы пока не готовы предложить правовые нормы, учитывающие все этические аспекты использования генеративного ИИ. Большинство по-прежнему имеет лишь смутные представления о том, что же в итоге вырастет из этого зёрнышка – прекрасная пальма, на которую постепенно, позабыв себя, взберётся прогрессивное человечество, либо что-то ещё, чего мы пока вообще не в состоянии себе представить, – рассуждает управляющий партнёр адвокатского бюро Москвы «Матюнины и Партнёры» Олег Матюнин.

-5

Чтобы взять под контроль этические проблемы, связанные с развитием ИИ, на уровне отдельных стран и крупных технологических компаний создаются специальные органы или подразделения. В России действуют государственные комиссии по этике в сфере искусственного интеллекта.

Учитывая востребованность подобных специалистов, вузы начинают вводить в свои программы специальные курсы по этике ИИ, где предполагается подготовка профессионалов, которые будут стоять на страже этических норм. Зачастую это представители не технического, а гуманитарного направления.

Впрочем, философы и психологи предлагают и более радикальные методы – вплоть до запрета искусственного интеллекта.

– Например, сейчас ИИ выступает в качестве катализатора, усугубляющего кризисы в системе образования. Для экономии было бы идеально заменить учителей на ИИ, но это приведёт к катастрофе. На мой взгляд, если допустить ИИ в сферы деятельности человека, то он будет увеличивать разрыв между людьми, способствовать росту безработицы, снижению уровня образования и массовой культуры. Огромное количество текстов, музыки, картинок не будет иметь никакой культурной ценности. Этого мусора уже сейчас терабайты в интернете, а дальше будет только хуже. Я не вижу ни одной социально-гуманитарной сферы, где ИИ принёс благо. Поэтому нужно отказываться от него на уровне государства, – полагает философ, судебный эксперт-психолог Олег Долгицкий.

Нейросети запросили людей

✏️Игорь Лесовских

🅾️Все материалы: octagon.media