Найти в Дзене
Российская газета

Безграмотность в отношении ИИ грозит новым неравенством

В России необходимо как можно скорее внедрять массовое обучение в области искусственного интеллекта (ИИ). Отсутствие образования приведет к цифровой сегрегации, последствия которой будут ощутимы в самых разных сферах деятельности, считают эксперты.

   Istock
Istock

По прогнозам консалтинговых агентств, использование ИИ может увеличить мировой ВВП на 14 процентов (на 15,7 триллиона долларов) уже к 2030 году. Однако вместе с увеличением роли этого фактора в мировой экономике растут и риски использования новой технологии. Чтобы свести их к минимуму, необходимо формировать культуру работы с ИИ.

Как отмечает генеральный директор АНО "Национальный центр компетенций по информационным системам управления холдингом" (НЦК ИСУ) Кирилл Семион, инструменты на основе ИИ уже изменили механизмы принятия решений и бизнес-процессы, ускорили анализ больших данных, стали основой новых пользовательских интерфейсов. Сегодня ИИ способен делать выводы на основе больших объемов информации с точностью, сравнимой с интуитивными решениями человека.

- Но это лишь первый этап внедрения ИИ в жизнь людей, - отмечает Семион. - В дальнейшем его влияние на все сферы экономики будет зависеть от уровня культуры работы с ИИ. Это значит, что пользователи должны знать, как именно работают эти инструменты. Без этого любой ИИ - всего лишь черный ящик, результат которого нельзя объяснить, а значит нельзя и контролировать.

Читайте "Российскую газету" в Max - подписаться

По словам специалиста, одним из основных рисков цифровой безграмотности является утрата контроля за работой ИИ. И тут впору напомнить об основном законе робототехники, сформулированном в произведениях писателя-фантаста Айзека Азимова. Он гласит, что "робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред". Однако создатели некоторых ИИ-решений как будто об этом не слышали. Например, в рамках исследования компании Anthropic (разработчик Claude) ИИ был готов перекрыть подачу воздуха в серверную, чтобы человек его не выключил! Как выяснили специалисты, зачастую нейросети не просто совершают ошибки, а сознательно выбирают опасные действия для достижения целей. Поэтому тенденция передачи искусственному интеллекту прав на принятие решений потенциально несет угрозу.

Еще одним серьезным риском является излишнее доверие ИИ, когда он в процессе решения поставленной задачи получает доступ к критически важной информации о технологических или бизнес-процессах.

- Ни одна из существующих моделей не предоставляет гарантий конфиденциальности - это логика их архитектуры. После передачи данных контроль над ними теряется. Уязвимы как частные лица, так и корпорации, особенно если конкурент сможет опосредованно получить сведения через следы чужих запросов, - объясняет Кирилл Семион.

Бизнес по своей природе жаден до любых новаций, которые способны принести прибыль. Поэтому сегодня технологии ИИ пытаются использовать везде, где только можно, но лишь со временем будет ясна их применимость, отмечает Александр Цыкунов, гендиректор компании "Некстби" (разработчик решений для цифровой трансформации организаций). Скоро придет понимание, что бездумная эксплуатация ИИ в рабочих процессах неэффективна, требует больших затрат на электроэнергию и обслуживание для качественного переобучения.

По словам Цыкунова, в настоящее время для результативной работы в сфере ИИ требуются большие вложения, поэтому не выживут те разработчики, которые не смогут за приемлемое время монетизировать результаты своего труда. Здесь можно провести аналогию с блокчейнами. Многие компании, занимавшиеся этой темой, уже забыты, однако успешные развиваются.

- Естественный отбор ИИ-технологий никто не отменял, и если они не имеют финансирования или монетизации - им суждено уйти с рынка, - рассуждает Цыкунов.

Еще в школе учащийся должен усвоить основы цифровой гигиены

А для общества в целом главным ответом на вызовы ИИ должна стать образовательная стратегия, дающая возможность безопасно взаимодействовать с новой технологией, уверен Кирилл Семион. Ее отсутствие приведет к новой социальной сегрегации - когда доступ к инструментам ИИ будет ограничен не только финансовым положением человека, но и уровнем его цифровой грамотности.

Кстати, этот процесс уже происходит в США, говорит гендиректор АНО НЦК ИСУ. Так, по данным исследовательской компании Pew Research, уровень использования ИИ-технологий напрямую зависит от образования и дохода. Специалисты высокой квалификации чаще интегрируют ИИ в свою работу, тогда как менее образованные сотрудники чаще всего воспринимают его только как угрозу своим рабочим местам.

- Развитие образования в области ИИ для общества не факультатив, а необходимость. И речь идет не только о подготовке новых инженеров и разработчиков. Современное взаимодействие с ИИ требует комплексного подхода к образованию - начиная со школы, ссузов и вузов до корпоративных программ, - подчеркивает эксперт. То есть оно должно быть многоуровневым и непрерывным.

Подготовленный к взаимодействию с ИИ специалист будет всегда делать поправку на то, что работа нейросети зависит от качества данных, и если в них есть ошибки, устаревшие сведения или разночтения, то ответ может быть не тем, на который рассчитывали. А в рамках корпоративного обучения сотрудники компаний должны не просто знакомиться с интерфейсом и базовыми принципами работы ИИ, а формировать стратегическое мышление, учиться соотносить потенциал технологии с конкретными бизнес-задачами.

Сегодня, когда ведущие страны мира развивают собственные экосистемы на основе искусственного интеллекта, приобретает актуальность задача синхронизации подходов к вопросам приватности, безопасности, ответственности. Для ее решения потребуются не только высококвалифицированные инженеры, работающие над суверенными моделями ИИ, но и осведомленные пользователи, понимающие суть того, что происходит в результате их применения.

- Только так можно выстроить систему сдержек и противовесов, при которой человек по-прежнему будет центром принятия решений, а ИИ - его помощником, а не судьей, - резюмирует Кирилл Семион.

Автор: Владислав Краев

В
Владислав Краев