Российские власти против «самостоятельного» ИИ
Российские чиновники и депутаты все чаще высказываются о необходимости держать искусственный интеллект (ИИ) под контролем. Одна из популярных мыслей – ИИ не должен принимать решения вместо человека. Например, в судебной системе прямо закреплено, что правосудие осуществляет «судья – человек», и даже при внедрении нейросетей в помощь суду вердикты в обозримом будущем будут выносить только люди. На недавнем круглом столе в Совете Федерации подтвердили: технологии смогут лишь помочь судье с рутиной, но не подменить его при вынесении приговора. Таким образом власти подчеркивают: решения, влияющие на судьбы людей, должны оставаться за живыми людьми, а не алгоритмами.
Другой частый аргумент – защита от “чужого” влияния через ИИ. Звучат опасения, что зарубежные нейросети могут навязать пользователям непроверенную или предвзятую информацию. Глава президентского Совета по правам человека Валерий Фадеев, например, заявил, что американские генеративные модели политически ангажированы и на острые вопросы выдают исключительно ответы в духе “западного нарратива”. По его мнению, это происходит потому, что российский информационный контент составляет ничтожную долю в данных, на которых обучены такие ИИ. Фадеев даже усмотрел в этом нарушение конституционной нормы о запрете цензуры, ведь «фактически, когда мы пользуемся этими нейросетями, мы получаем уже отцензурированную информацию». Иными словами, западный ИИ обвиняют в предвзятости и считают, что он опасен как проводник чуждых идеологий. Отсюда возникает риторика про «защиту от западных ИИ» – мол, нужно оградить граждан от иностранного алгоритма, который преподносит “неправильную” картину мира.
В ход идут и бытовые аргументы. Депутаты обращают внимание на недоверие части общества к умным машинам. Согласно опросам, 38% россиян скорее не доверяют технологиям ИИ (боятся сбоев, ошибок, утечки данных и т.д.). Опираясь на эти настроения, во фракции «Новые люди» предложили закрепить право граждан отказываться от услуг, оказываемых с помощью ИИ, особенно когда речь о здравоохранении и образовании. «Граждане должны получить реальный выбор – принимать помощь ИИ или полагаться на опыт человека», – пишут депутаты Алексей Нечаев и Антон Ткачев в обращении в правительство. Инициатива мотивирована просто: пока технологии несовершенны, нельзя никого заставлять доверять машине в вопросах, напрямую затрагивающих жизнь и здоровье. Получается, власти пытаются показать, что беспокоятся о безопасности и психологическом комфорте людей: если боитесь робота-врача – имеете право потребовать живого врача.
Однако порой звучат и менее благородные нотки. На фоне того как ИИ всё лучше имитирует человеческий интеллект, в обществе возникла ироничная идея: а не заменить ли наших чиновников нейросетью? Опрос 2021 года показал, что 53% россиян поддержали бы замену депутатов Госдумы на искусственный интеллект. Люди объясняли это тем, что нейросеть будет честнее и лучше учитывать интересы населения, не склонна к коррупции. Естественно, сами депутаты восприняли такую идею в штыки. «Люди наивны, полагая, что ИИ может принимать более адекватные решения», парировал депутат Антон Горелкин, добавив, что роль парламентария – представлять интересы избирателей, а не просто штамповать законы. В переводе с бюрократического: не верьте машинам, без нас, любимых, народное мнение не учтешь. И хотя этот эпизод носит полушутливый характер, он отлично иллюстрирует скрытую тревогу власть имущих – умные алгоритмы способны покуситься на их монополию принимать решения.
Цифровой суверенитет и законопроекты против чужого ИИ
Все эти заявления ложатся на благодатную почву концепции «цифрового суверенитета», которую российская власть продвигает последние годы. После ухода из страны многих иностранных IT-платформ в 2022 году курс на технологическую независимость лишь усилился. Теперь очередь дошла и до искусственного интеллекта. В России активно развивают собственные аналоги ChatGPT – так, в 2023 году Сбербанк представил отечественную модель GigaChat как ответ американскому GPT. Появляются и другие русскоязычные нейросети, от голосовых ассистентов до генераторов изображений. Идея проста: если есть свои, суверенные ИИ, то незачем пользоваться чужими, тем более неконтролируемыми.
На законодательном уровне тоже кипит работа. По поручению спикера Вячеслава Володина в Госдуме создана рабочая группа, разрабатывающая нормативную базу в сфере ИИ. В апреле 2025-го стали известны первые результаты: профильная группа экспертов подготовила проект закона «О регулировании систем искусственного интеллекта в России». Этот документ довольно обширный. Во-первых, он предлагает ввести четырехуровневую классификацию ИИ-систем по степени риска – от минимального до неприемлемого. И, самое важное, запретить в России разработку и применение систем ИИ с “неприемлемым уровнем риска”. Под неприемлемым понимаются такие технологии, которые создают угрозу безопасности личности, общества и государства или нарушают основные права и свободы граждан. Формулировка, как видим, весьма широкая: под запрет теоретически может попасть любой ИИ, который власть сочтет опасным для общества или государства. Помимо этого, для “высокорискованных” ИИ (медицина, транспорт, финансы, правопорядок и т.п.) планируется обязательная госрегистрация и сертификация, а для среднерискованных – системы внутреннего контроля и добровольная сертификация. Также в проекте прописаны требования маркировать контент, созданный нейросетью, чтобы пользователь всегда знал, где говорит машина. Разработчиков ИИ хотят обязать нести ответственность за вред, причиненный их алгоритмами, с механизмом страхования ответственности. Даже вопрос интеллектуальных прав на результаты творчества ИИ затронули: если человек внёс творческий вклад – права его, если нет – правообладателем результата станет оператор ИИ-системы на 50 лет.
Все это выглядит достаточно прогрессивно и в чем-то перекликается с подходом Евросоюза (там тоже обсуждают запрет “неприемлемых” ИИ, обязательную маркировку deepfake-контента и т.д.). Однако в российском варианте есть своя специфика: акцент на государственную безопасность и контроль. Под категорию «неприемлемых» рисков явно могут попадать, скажем, ИИ-системы, нарушающие “устои” или распространяющие информацию, которую власть сочтет опасной. Не трудно догадаться, что сюда может быть отнесен и неподцензурный зарубежный ИИ-сервис.
Кроме общего закона, обсуждаются и точечные ограничения. В марте 2023 года, когда ChatGPT гремел на весь мир, российский регулятор фактически закрыл доступ к этому сервису. Официально OpenAI сама «геофизировала» Россию, отключив возможность регистрации российских пользователей. Но немаловажно, что Роскомнадзор внес сайт chat.openai.com в список запрещенных (по неофициальным данным, за распространение «нежелательной информации»). Более того, в 2023-м Главный радиочастотный центр Роскомнадзора направил хостинг-провайдерам письмо с требованием заблокировать в России веб-сканер GPTBot – фирменного паука OpenAI, который собирает данные с сайтов для обучения моделей. Иными словами, российским администраторам велено не пускать паука ChatGPT на свои сайты, «чтобы исключить сбор информации с российских ресурсов». Такой шаг прямо укладывается в логику цифрового суверенитета: не кормить чужой ИИ нашими данными.
Параллельно идут разговоры о том, чтобы ограничить доступ рядовых пользователей к внешним нейросервисам до появления полноценных отечественных аналогов. Формально это может выражаться в требованиях: хранить данные россиян только на российских серверах, проходить сертификацию по нашим правилам и т.п. Если иностранный сервис не выполнит этих условий – он будет заблокирован. Уже сейчас, чтобы пользоваться тем же ChatGPT, гражданину РФ приходится идти окольными путями (VPN, прокси). Возможно, в будущем эти лазейки постараются прикрыть юридически. Ряд инициатив о “суверенном Рунете” косвенно это предполагают. Ведь логика властей такова: как когда-то мы “отпочковали” российский сегмент интернета, так теперь создадим и суверенную экосистему ИИ.
Конечно, у этой медали есть и другая сторона. Пока государство закручивает гайки, российский бизнес опасается избыточного регулирования, которое может задушить инновации. Не случайно еще в феврале 2025-го вице-премьер Дмитрий Григоренко публично заявлял, что «законодательное регулирование ИИ не планируется в ближайшие два года», ведь чрезмерная поспешность «приведет к замедлению развития стратегически важной отрасли». Очевидно, в правительстве есть разногласия: одни требуют срочно принять строгие законы, другие призывают не убивать рынок на взлете. Как шутят сами разработчики, “не мешайте нам – и мы сами внедрим этичное использование ИИ”. В 2022 году ведущие компании даже подписали добровольный Кодекс этики ИИ, пообещав маркировать сгенерированный контент и учитывать риски. Но хватит ли этого, чтобы успокоить сторонников тотального контроля – большой вопрос.
Опасен ли ИИ, или опасна потеря контроля?
При всей озвучиваемой тревоге невольно возникает мысль: а действительно ли ИИ угрожает безопасности страны, или проблема в утрате информационного контроля? Пока аргументы властей больше похожи на “страх перед неизвестным” и желание подстраховаться. Да, искусственный интеллект способен на ошибки и может распространить дезинформацию. Но современный ИИ – это не восставший «Скайнет» из фантастики, у него нет собственных целей по захвату мира. Зато у него есть неудобная для властей черта: он генерирует информацию вне рамок государственной цензуры.
Представим рядового гражданина, который задаст чатботу вопрос на запретную тему – например, о коррупции или о событиях, которые официальные СМИ преподносят однобоко. Велика вероятность, что нейросеть выдаст ему ответ на основе открытых мировых данных, без оглядки на кремлевские методички. Для власти это настоящая головная боль: столько усилий тратится на формирование правильной повестки, и вдруг какой-то алгоритм может в два счёта эту конструкцию подорвать, рассказав человеку то, чего не должны знать. Недаром Фадеев с таким жаром обличал “цензуру” западных ИИ – московские стратеги привычно проецируют на других собственные практики. Ведь именно у нас принято фильтровать информацию, а тут фильтр не наш, чужой – значит, опасный.
На деле же российское руководство боится не искусственного интеллекта как такового, а утраты монополии на истину. ИИ — всего лишь новый канал информации. Раньше была независимая пресса и интернет, теперь вот чатботы. Логика борьбы одинаковая: ограничить, заблокировать, создать свою подконтрольную альтернативу. Можно вспомнить, как в 2014 году под предлогом «защиты от экстремизма» ввели жёсткую цензуру в СМИ и блогах, как в 2019-м ради “цифрового суверенитета” приняли закон о изоляции Рунета. Каждая такая мера подавалась как защита граждан от внешних угроз — будь то террористы, вредные секты или западная пропаганда. Теперь в этот же ряд встал образ коварного зарубежного ИИ, который якобы может “зомбировать” пользователей и даже поставить под угрозу государство.
Но не слишком ли это преувеличено? Пока что ни один чатбот не совершил революции и не взломал банковскую систему по своей воле. Зато он действительно способен вывести людей из “информационной тени”, подсветив те факты и мнения, которые официальные каналы прячут. Возможно, именно этого больше всего и боятся – что народ напрямую спросит у нейросети то, о чём не принято говорить вслух, и получит прямой ответ. И неважно, что этот ответ не всегда точен – важно, что он неконтролируем. В стране, где информация давно стала одной из форм власти, появление альтернативного ее источника воспринимается почти как посягательство.
Отсюда и вся риторика об угрозах: за красивыми словами о безопасности зачастую скрывается банальное желание держать население в информационном вакууме. ИИ в таком случае – лишь новая точка входа, которую стремятся либо закрыть, либо поставить под надзор. Это как если бы библиотекарь, привыкший выдавать только одобренные книги, вдруг обнаружил, что читатели научились скачивать с интернета любые тексты. Конечно, первым делом он закричит, что в нелегальных текстах скрыты опасные вирусы для мозга, и станет требовать отключить читателям Wi-Fi.
Запреты vs реальность: ИИ найдёт лазейку
Предположим на минуту, что ИИ-сервисы действительно несут угрозу национальной безопасности. Означает ли это, что их можно нейтрализовать простым запретом на техническом уровне? История интернета учит нас скептицизму. Практически любой запрет в цифровой сфере порождает десятки способов обхода. Вспомним попытку блокировки Telegram в 2018–2020 годах – тогда Роскомнадзор бился два года, перебанил миллионы IP-адресов, а мессенджер так и остался доступен через прокси и VPN. В итоге отступили и самим чиновникам пришлось вернуться в Telegram с позором. С интернет-нейросетями ситуация еще более скользкая. Закроют один сайт – тут же появится другой. Запретят официально – энтузиасты сделают «серый» доступ. Уже сейчас существуют телеграм-боты и сторонние приложения, позволяющие общаться с ChatGPT, минуя прямой заход на его сайт. Стоит одному бот-гуру написать скрипт – и тысячи пользователей спокойно получают ответы ИИ в обход блокировок. Это своего рода цифровая гидра: отрубая одну голову, власть провоцирует рост двух новых.
Кроме того, нельзя забывать, что ИИ – это не только сервис в интернете, это еще и алгоритм, который может работать автономно. Сегодня в открытом доступе есть множество моделей с открытым исходным кодом, которые любой желающий может запустить у себя на компьютере. Да, они могут быть послабее гигантского ChatGPT, но для многих задач вполне подходят. Если человеку позарез нужен “умный советчик” – он установит локальную копию нейросети и будет ею пользоваться, никаких Роскомнадзоров не хватит, чтобы за каждым уследить. Тем более программистов у нас хватает, и при желании сообщество разработчиков быстро создаст инструменты для маскировки ИИ-трафика под безобидные приложения. В конце концов, запретный плод сладок: чем строже ограничения, тем изощреннее методы обхода.
Есть еще и серый рынок. Допустим, крупным компаниям формально запретят использовать иностранные ИИ-сервисы под страхом штрафов. Но если бизнес посчитает это критичным для конкурентоспособности, найдутся обходные пути – от аренды зарубежных серверов до привлечения посредников. По аналогии с параллельным импортом айфонов и запчастей, появится параллельный импорт интеллектуальных услуг. Например, российская фирма может платить иностранному подрядчику, а тот уже будет гонять запросы в ChatGPT и возвращать результаты. Снаружи все легально, а по факту – тот же доступ к запрещенной технологии. Подобные схемы трудно пресечь, не ставя тотальный контроль над всеми каналами связи (что практически утопия).
По сути, технические барьеры способны лишь затруднить доступ к ИИ для массового обывателя, да и то временно. Для решительного пользователя это не преграда: установить VPN сейчас под силу даже школьнику. К слову, многие студенты уже так и делают, пользуясь ChatGPT для помощи с домашними заданиями несмотря на блокировки – благо молодежь в технологиях подкована. А вот злоумышленника или иностранного шпиона “стена” не остановит вовсе: у того точно будут инструменты заполучить нужный ИИ-алгоритм. Таким образом, если представить самый параноидальный сценарий, что нейросеть вдруг превратится в оружие против государства – бороться с ним нужно другими методами (правовыми, организационными, международным сотрудничеством), а не просто выдернуть шнур из розетки.
Ирония в том, что вводимые запреты могут ударить прежде всего по самим же гражданам и по развитию отечественных технологий. Пока весь мир бежит вперед, наши пользователи рискуют оказаться в изоляции, ограниченные “урезанными” возможностями локальных сервисов. Самые настойчивые, конечно, лазейку найдут, но массово страна может начать отставать. Интеллект не любит клеток – ни естественный, ни искусственный.
Мировой опыт: свободный Запад, осторожный Восток
Для контраста полезно взглянуть, как вопрос регулирования ИИ решают за пределами России. Оказывается, подходы сильно разнятся.
США – родина большинства передовых ИИ – пока не вводят жестких ограничений для пользователей. Американское правительство обеспокоено этическими и социальными рисками ИИ (например, дискриминация при отборе на работу, конфиденциальность данных, распространение фейков), но старается не душить инновации. Вместо запретов – рекомендации и принципы. В 2022 году Белый дом представил «Хартию прав в эпоху ИИ» (AI Bill of Rights) – свод негласных правил для разработчиков, чтобы те учитывали права людей. В 2023-м крупнейшие tech-компании (Google, Microsoft, OpenAI и др.) по призыву властей добровольно взяли на себя обязательства по безопасному развитию ИИ, пообещав внедрять систему проверок, метки ИИ-контента и прочие меры. На уровне законов же единых федеральных норм пока нет – идет обсуждение в Конгрессе, создаются комиссии. Некоторые штаты, впрочем, уже принимают свои акты. Так, штат Колорадо в 2024 году первым ввел всеобъемлющий закон об ИИ, применив риск-ориентированный подход по аналогии с ЕС. Согласно этому закону, особое внимание уделяется прозрачности и оценке высокорискованных систем, но речи о запрете общедоступных чатботов не идет. В целом в США доминирует мысль: ИИ – это двигатель прогресса и конкурентного преимущества, поэтому надо дать ему развиваться, параллельно устраняя точечные проблемы существующими законами (о защите потребителей, недопустимости мошенничества и т.д.). Никто не предлагает “отрубить” американцам ChatGPT из страха, что он их переформатирует. Наоборот, там скорее опасаются отстать в гонке, если зарегулировать сверх меры.
Европейский союз занимает, пожалуй, самую взвешенно-осторожную позицию. В ЕС ценят права человека и потому скептически смотрят на вседозволенность ИИ. Но вместо запрета технологий европейцы разрабатывают подробные правила игры. Сейчас на финальной стадии находится Европейский закон об искусственном интеллекте (AI Act) – первый в мире комплексный свод норм для этой сферы. Он тоже основывается на идее градации рисков: под полный запрет попадут лишь ИИ-системы с неприемлемым риском (например, социальный рейтинг граждан наподобие китайского, или бессудное распознавание лиц в реальном времени в публичных местах). Генеративные модели типа ChatGPT в ЕС запрещать не собираются, но им пропишут обязанности – транспарентность, раскрытие данных об обучении, маркировка сгенерированных материалов, соблюдение авторских прав и пр. Европа старается найти баланс: и инновации не задушить, и людям гарантировать защиту от потенциально вредных последствий ИИ. Показательный эпизод: весной 2023 года Италия временно блокировала ChatGPT – но не из-за “неправильных ответов”, а из-за нарушения европейского регламента по защите данных (GDPR). В OpenAI оперативно внесли изменения – ввели уведомление о сборе данных, возрастной фильтр – и через месяц итальянцы вновь получили доступ к чатботу. Это хороший пример того, как в демократических странах решаются вопросы с ИИ через призму прав граждан, а не информационной безопасности государства. При этом дискуссии в Европе идут жаркие – как именно контролировать новые модели, не навредив развитию? Например, Франция и Германия спорили о степени открытости исходного кода ИИ и размере штрафов. Но никто не сомневается, что общаться с нейросетью – законное право человека, нужно лишь оградить его от реальных злоупотреблений (скажем, чтобы банковский скоринг не отказал в кредите из-за цвета кожи, или чтобы deepfake-бот не очернил репутацию).
Китай, напротив, смотрит на ИИ преимущественно через призму господства и контроля. Народная Республика стремительно внедряет ИИ во все сферы – от промышленности до армии – и весьма преуспела в этой гонке. Но свободы для потребительских чатботов там почти нет. ChatGPT официально заблокирован китайским “Великим файрволом”, как и большинство западных сервисов. Зато китайские гиганты (Baidu, Alibaba, Tencent) представили собственные модели, которые обучены строго в рамках цензурных требований Компартии. В 2023 году Пекин выпустил специальные «Временные меры по управлению генеративным ИИ», которые обязывают провайдеров нейросетей соблюдать национальные интересы, социальные ценности и цензурные законы. Генеративный ИИ в Китае должен “продвигать здоровое развитие и не угрожать нацбезопасности” – иначе его просто не пустят в публичный доступ. Любой сервис, генерирующий контент, проходит госэкспертизу и сертификацию, провайдеры обязаны требовать реальную идентификацию пользователей, а за запрещенный контент несут прямую ответственность. Более того, если зарубежный ИИ-сервис предоставляет услуги в Китае и нарушает местные законы или эти меры, власти имеют право его заблокировать. По сути, Китай выстроил огромный “заповедник” для ИИ: внутри него технологии бурно цветут под присмотром государства, а все внешнее фильтруется на границе. Такой подход сродни китайскому интернету в целом – огороженному, суверенному и под полным контролем. Разница лишь в том, что КНР сочетает цензуру с колоссальными инвестициями в развитие. Тамошние власти уверены, что смогут одновременно удержать идеологическую чистоту и добиться технологического превосходства.
Где же на этом фоне Россия? Пока складывается впечатление, что мы пытаемся усидеть на двух стульях и воспроизвести худшие черты обеих моделей. С одной стороны, звучат китайские мотивы про суверенитет и “ценностные скрепы”, желание оградиться от иностранного влияния. С другой – ресурсов и системности как у Китая нет, зато есть традиционная бюрократическая неповоротливость. В итоге есть риск, что мы зарежем доступ к чужим достижениям, но и своих высот не достигнем. Евросоюз и США хотя бы открыто обсуждают эти вопросы с участием общества и бизнеса, стараются найти рациональное зерно. У нас же нередко решения принимаются кулуарно, под соусом патриотизма, без оглядки на реальную эффективность. В попытке предотвратить мифическую угрозу можно запросто притормозить собственный прогресс. Не зря же специалисты бьют тревогу: если зарегулировать ИИ сейчас, он превратится в “информационную атомную отрасль” – вроде бы есть, да толку мало.
Вместо вывода: Дрессировка ИИ или собственных граждан?
Российская специфика регулирования ИИ, как мы видим, строится на яркой смеси благих намерений и скрытых страхов. С трибуны говорят о безопасности и защите людей, а между строк читается: “мы боимся потерять контроль”. Искусственный интеллект стал новым рубежом, на котором государство стремится утвердить свою власть – как когда-то на телевидении, в интернете, в социальных сетях. Ирония ситуации в том, что борьба идет не столько с технологиями, сколько с людьми – с их правом свободно получать и распространять информацию, с их стремлением к знаниям без посредников.
Конечно, государственное регулирование необходимо – ИИ действительно таит риски, которые надо заранее продумывать. Вопрос в мере и мотивах. Одно дело – защитить граждан от реально вредных последствий (скажем, запретить автономным ИИ-убийцам решать, в кого стрелять, или не допустить алгоритмической дискриминации). И совсем другое – защитить власть от собственного народа, вооруженного знанием. Пока создается впечатление, что под флагом первого активно проводится второе.
Как в известной поговорке, «если бы ИИ не было, его стоило бы запретить» – уж очень он неудобен, когда отвечает на вопросы без оглядки наверх. Но джинн уже вырвался из бутылки. Мир все глубже интегрирует нейросети в жизнь, и попытки спрятаться от этого процесса за стеной выглядят бесперспективно. В конце концов, сама власть с удовольствием пользуется плодами ИИ, когда речь о выгоде для себя – системы распознавания лиц помогают ловить протестующих, большие данные позволяют агитировать избирателей, глубокие фейки можно применить в пропаганде. Выходит, «хороший» ИИ им не мешает, мешает «плохой» – тот, что на стороне общества.
Так не пора ли честно признаться, что дело не в железных мозгах, а в человеческих амбициях? Возможно, тогда и разговор о регулировании перейдет из жанра страха и иронии в конструктивное русло. Ведь умные машины не сделают нас свободными или несвободными – это сделают люди, которые решают, как этими машинами можно пользоваться. Пока же остается только с долей сарказма наблюдать, как российский ИИ строят, словно электростанцию, – по разнарядке и с колючей проволокой, опасаясь, как бы током не ударило кого не следует.
Проще говоря, искусственному интеллекту у нас пытаются надеть намордник и посадить на цепь. Но будет ли от этого толк? Пес, которого держат в будке, не научится новым трюкам. А если будку запереть, он все равно найдет, как вырыть лаз под забором. Может быть, вместо того чтобы бороться с умом – пусть и искусственным, стоит направить энергию на воспитание доверия, открытости и ответственности при обращении с ним? Ведь в конечном счете прогресс не остановить, и рано или поздно нам всем придется взглянуть ему в лицо – без масок и ограничителей.
SEO-ключевые слова
искусственный интеллект в России, запрет ChatGPT, цифровой суверенитет, регулирование ИИ, ИИ и цензура, нейросети в России, закон об ИИ, государственный контроль ИИ, ИИ и свобода слова, ИИ против власти, блокировка ИИ сервисов, GigaChat, замена чиновников ИИ, OpenAI и Россия, VPN обход ChatGPT, свобода информации в России, ИИ и пропаганда, ИИ и законы, нейросети и общество, развитие ИИ в мире