Найти в Дзене
ИА "Уральский меридиан"

Друг или угроза: уральские учёные обсудили перспективы развития искусственного интеллекта

Сегодня стремительное развитие искусственного интеллекта (ИИ) вызывает беспокойство. Он помогает людям в медицине, финансах и творчестве, но в то же время ставит под удар нашу безопасность, приватность и основы справедливости. По данным ВЦИОМ, ИИ доверяют 52%, или каждый второй, не доверяют — 38%, что на 6% выше в сравнении с 2022 г. Россияне, не доверяющие технологиям, аргументируют свою позицию сбоями и ошибками в работе ИИ (28%), допускают его выход из-под контроля человека (26%) и возможность его использования в корыстных целях (23%). Чаще всего опрошенные приветствуют использование ИИ в промышленности (80%), науке (76%), строительстве (72%), энергетике (72%) и торговле (72%), а также в сфере досуга и развлечений (70%). При оказании медицинских и образовательных услуг россияне не готовы давать шанс искусственному интеллекту. То есть около 70% опрошенных категорически против замены учителей и врачей ИИ. Уральские эксперты порассуждали, возможно ли создать рамки, которые защитят обще
   Фото: Лидия Аникина © ИА «Уральский меридиан»
Фото: Лидия Аникина © ИА «Уральский меридиан»

Сегодня стремительное развитие искусственного интеллекта (ИИ) вызывает беспокойство. Он помогает людям в медицине, финансах и творчестве, но в то же время ставит под удар нашу безопасность, приватность и основы справедливости. По данным ВЦИОМ, ИИ доверяют 52%, или каждый второй, не доверяют — 38%, что на 6% выше в сравнении с 2022 г. Россияне, не доверяющие технологиям, аргументируют свою позицию сбоями и ошибками в работе ИИ (28%), допускают его выход из-под контроля человека (26%) и возможность его использования в корыстных целях (23%). Чаще всего опрошенные приветствуют использование ИИ в промышленности (80%), науке (76%), строительстве (72%), энергетике (72%) и торговле (72%), а также в сфере досуга и развлечений (70%). При оказании медицинских и образовательных услуг россияне не готовы давать шанс искусственному интеллекту. То есть около 70% опрошенных категорически против замены учителей и врачей ИИ.

Уральские эксперты порассуждали, возможно ли создать рамки, которые защитят общество, но не задушат технологический прогресс. Специалисты предлагают несколько вариантов. Одни настаивают на жестких законах по образцу GDPR (общий регламент по защите данных в ЕС), а другие верят в саморегуляцию отрасли.

Фото: Эмма Миргалямова  📷
Фото: Эмма Миргалямова 📷
«Искусственный интеллект очень активно проникает в нашу жизнь, — отмечает кандидат технических наук УРФУ, доцент Иван Гурин. — На мой взгляд, развитие должно идти по пути саморегуляции разработчиков или минимальной регуляции со стороны государства с опорой на этические нормы. Разработчик сам должен определять порядок использования ИИ, особенно в чувствительных областях. Этические нормы должны включать принципы прозрачности, защиты данных и честности. Например, студент не должен выдавать ИИ-работу за свою, не разбираясь в теме».

Также существуют и другие мнения, согласно которым добровольных мер недостаточно — требуются жесткие проверяемые стандарты.

«Компьютерная программа тоже продукт интеллектуальной деятельности человека. Системы ИИ представляют частный случай программного обеспечения (ПО), — комментирует старший преподаватель факультета «Информационные системы и технологии» Олег Охотников. — По моему мнению, для решения таких задач, как регулирование ИИ, требуется разрабатывать и развивать системы верификации и тестирования программного обеспечения, которые используются и контролируются человеком. Необходимо контролировать использование ПО».

Такой подход подразумевает создание аналогов сертификации для критических систем, как, например, в авиации или медицине, где продукты перед запуском тестируются тысячи раз. Полярность мнений указывает на необходимость комплексной модели. Наиболее перспективным инструментом представляется «регуляторная песочница» — это специальный правовой режим для тестирования инноваций в реальных условиях, но с ограничениями. На сегодняшний день уральские эксперты дают несколько советов, которые помогут «с умом» использовать ИИ-системы.

  1. Всегда проверяйте шокирующие новости — часто они бывают фейками. ИИ отлично генерирует не только фейки, но и убедительные подделки: «фотографии» событий, «голос» близкого человека в телефонном мошенничестве, «научные» статьи. Используйте обратный поиск картинок (Google Images, Yandex), проверяйте первоисточники, ищите ту же новость в авторитетных СМИ.
  2. Читайте «пользовательские соглашения» (хотя бы ключевые пункты): Ищите разделы об использовании данных для тренировки ИИ или использовании файлов cookie, которые собирают о вас данные в виде логинов, паролей, историй посещений. Часто можно отказаться от необязательной аналитики в настройках.
  3. Умные колонки часто нас прослушивают, и выдают нам ту информацию, которую мы недавно говорили. Нужно зайти в настройки устройства (например, в приложении «Яндекс» или «Google Ассистент») и просмотреть/очистить историю голосовых запросов. Отключить постоянное прослушивание, если функция не критически нужна. Так вы можете выбраться из «цифрового аквариума», в котором находитесь.

Однозначного ответа на главный вопрос — как найти хрупкий баланс между инновациями и безопасностью — сегодня не существует. Ясно одно: правила для ИИ не могут быть раз и навсегда обозначиться кодексом. Это эволюционирующий процесс, в котором наше коллективное благоразумие испытывается на прочность.

Агентство писало, что каждый третий специалист на Урале использует искусственный интеллект в работе. По результатам опроса аналитики установили, что больше всего ИИ и нейросети используются в малом и микробизнесе (23%), а в крупном и среднем бизнесе — используют всего 13% специалистов. В опросе приняли участие 1500 специалистов разных сфер деятельности в 10 самых крупных городах УрФО старше 18 лет.