Найти тему
IQ Media

Как Китай борется за лидерство в сфере искусственного интеллекта

Фото: iStock
Фото: iStock

Запустив собственный продукт на основе ИИ вдогонку за ChatGPT, Китай закрыл двери для иностранных производителей и занялся разработкой систем безопасности в этой сфере. Опыт Поднебесной в формировании индустрии продуктов на основе искусственного интеллекта обсудили на конференции Высшей школы экономики «Искусственный интеллект и общество».

С докладом «Злонамеренное использование искусственного интеллекта: текущие и перспективные угрозы информационно-психологической безопасности в Китае» выступила выпускница аспирантуры факультета международных отношений СПбГУ Екатерина Михалевич.

Популярность ChatGPT спровоцировала настоящую гонку среди компаний, занимающихся разработкой продуктов на основе искусственного интеллекта. Не отстают и китайские технологические гиганты: так, своего собственного бота в марте этого года запустил ведущий китайский инвестор в индустрии искусственного интеллекта Baidu.

При этом ChatGPT и другие иностранные чаты китайские власти активно блокируют. Таким образом регуляторы предоставляют отечественным технологическим компаниям поддержку в разработке собственных продуктов.

Кроме того, в стране разрабатываются цифровые продукты, которые могут противостоять угрозе злонамеренного распространения ложного контента, созданного искусственным интеллектом. Так, в начале марта этого года запущена бета-версия первого китайского инструмента по поиску подобного контента. Этот продукт позволяет обнаружить фейк-ньюс и спам, которые были созданы на основе технологии ИИ, с точностью до 90%.

На китайском рынке присутствуют и другие компании, работающие на обеспечение безопасности в сфере развития искусственного интеллекта и контроля контента, созданного на его основе. Одна из них создала приложение, позволяющее генерировать контент на основе ИИ, а также программу, выявляющую подобный контент, на основе алгоритмов собственной разработки.

Другая ведущая компания в области медиабезопасности разрабатывает умные решения для построения процесса обучения на основе технологии ИИ в учебных заведениях. Эти продукты позволяют повысить общий уровень осведомленности и углубить человеческие компетенции распознавания контента, сгенерированного искусственным интеллектом.

Фото: iStock
Фото: iStock

Екатерина Михалевич рассказала еще об одной угрозе — возможности ведения когнитивной войны с использованием ИИ. По ее словам, в последние десятилетия наблюдается тенденция ведения так называемых гибридных войн, когда конфликтующие стороны не прибегают к классическим боевым действиям, а используют другие способы, в том числе в киберсреде. Большое внимание уделяется когнитивной войне, то есть борьбе за изменение сознания и поведения человека.

Чтобы уметь отражать такую угрозу, китайские эксперты предлагают сосредоточиться на когнитивных пробелах и использовать технологии искусственного интеллекта в области больших данных для оценки ментальных и поведенческих моделей, для анализа и контроля информации, которую потребляет человек. Предлагается использовать ИИ также и в наступательных операциях, вторжении в центр принятия решений противника, расшатывании его позиции с помощью когнитивного вмешательства, в системах разведки и раннего предупреждения.

«Китайские эксперты отмечают, что освоение технологий искусственного интеллекта и использование таких технологий в военной сфере — это беспрецедентная историческая возможность для китайского общества, которая выпадает раз в жизни, поэтому ею необходимо воспользоваться для решения исхода возможных будущих войн», — отметила Екатерина Михалевич.

Таким образом, технологии искусственного интеллекта, создаваемые в целях ускорения технологического прогресса, становятся оружием в сфере общественного восприятия и в политике. По мнению Екатерины Михалевич, экспертам стоит выработать инструменты и протоколы предупреждения подобных угроз, а также научиться эффективно и своевременно реагировать на них.

По материалам HSE Daily