Найти в Дзене
Social Mebia Systems

«Запрет на Cursor»: почему крупные компании жертвуют удобством ради кода

В 2023–2025 годах Cursor, Copilot и похожие AI‑ассистенты стали для разработчиков фактическим стандартом работы. Многие команды привыкли писать код в режиме «натуральный язык → готовая функция», а автодополнение и рефакторинг через ИИ стали частью мышечной памяти. И именно в этот момент всё больше крупных компаний начинают такие инструменты отключать. Свежий пример — Kuaishou: при запуске Cursor на рабочем компьютере приложение просто вылетает. Аналогичные ограничения уже ввели ByteDance, Microsoft, Amazon и ряд китайских ИКТ‑гигантов. На первый взгляд это выглядит как откат в «ручную эпоху». На самом деле речь о попытке решить новую версию старой задачи: что важнее для бизнеса — максимум эффективности или максимальная защита кода и данных? Почему AI‑IDE попали под удар По сути, политика техгигантов — продолжение старой логики безопасности: Cursor, Copilot и другие AI‑инструменты по умолчанию: Для служб безопасности это выглядит как постоянный «тонкий» канал утечки:
не один большой сли

В 2023–2025 годах Cursor, Copilot и похожие AI‑ассистенты стали для разработчиков фактическим стандартом работы. Многие команды привыкли писать код в режиме «натуральный язык → готовая функция», а автодополнение и рефакторинг через ИИ стали частью мышечной памяти.

И именно в этот момент всё больше крупных компаний начинают такие инструменты отключать. Свежий пример — Kuaishou: при запуске Cursor на рабочем компьютере приложение просто вылетает. Аналогичные ограничения уже ввели ByteDance, Microsoft, Amazon и ряд китайских ИКТ‑гигантов.

На первый взгляд это выглядит как откат в «ручную эпоху». На самом деле речь о попытке решить новую версию старой задачи: что важнее для бизнеса — максимум эффективности или максимальная защита кода и данных?

Почему AI‑IDE попали под удар

По сути, политика техгигантов — продолжение старой логики безопасности:

  • ещё до эры LLM компании ограничивали:
  • несертифицированные плагины к IDE,
  • автоматический крэш‑репортинг наружу,
  • любые сервисы, которые могут отправлять исходники за периметр;
  • в эпоху GitHub/GitLab — приватные репозитории, аудит коммитов, запреты на вынос кода вне VPN, контроль скриншеринга и копирования.

Cursor, Copilot и другие AI‑инструменты по умолчанию:

  • отправляют в облако фрагменты кода, комментарии, подсказки, иногда ещё не попавшие в репозиторий;
  • потенциально «знают» бизнес‑логику и внутренние API лучше самого разработчика.

Для служб безопасности это выглядит как постоянный «тонкий» канал утечки:
не один большой слив, а ежедневный поток микроданных.

Отсюда решения:

  • ByteDance: с лета 2025 года поэтапно блокирует Cursor и Windsurf, одновременно продвигая собственный ассистент Trae.
  • Microsoft: публично запретила сотрудникам использовать DeepSeek и «непроверенные» AI‑сервисы для работы с кодом.
  • Amazon: требует использовать только внутренний «Kiro», новые сторонние AI‑инструменты во внутренний контур не допускаются.
  • Китайские телеком‑ и ИКТ‑корпорации и раньше жёстко блокировали любое «выведение» артефактов наружу — запрет AI‑IDE просто продолжает эту линию.

Фактически формируется новая норма:
«код пишем только с помощью своего, контролируемого ИИ; внешний ИИ — риск‑фактор».

Цена безопасности: падение продуктивности и «ржавые ножи»

Для разработчиков такой разворот заметен мгновенно:

  • привычный workflow «описал задачу → получил 70–80% готовой функции» ломается;
  • внутренние ассистенты часто:
  • хуже понимают контекст,
  • дают некомпилируемый или устаревший код,
  • вмешиваются не вовремя и только мешают.

Не случайно в технических чатах шутят: «Дашь отечественному AI дописать последние 10% функции — он перепишет и сломает первые 90%.»

Отсюда характерные «промпты‑жалобы», которыми программисты разговаривают с корпоративными ассистентами:

  • «Не надо снова вставлять TODO»
  • «Эта ошибка у тебя уже была вчера»
  • «Этот код даже не собирается»

То есть ИИ приходится не столько использовать, сколько «дрессировать». Для тех, кто работал с более продвинутыми внешними инструментами, это воспринимается как шаг назад и реальное падение скорости разработки.

Дилемма компаний: чего они боятся больше

Сводка дилеммы выглядит так:

  • Страх №1 — утечка кода и данных.
  • риск раскрытия внутренней логики;
  • возможное «заражение» внешних моделей приватным кодом;
  • юридические и репутационные последствия.
  • Страх №2 — потеря производительности и отставание.
  • минус десятки процентов к скорости разработки;
  • снижение привлекательности компании как места работы для сильных инженеров;
  • более медленные релизы на фоне конкурентов, которые AI‑ассистентов не боятся или уже построили качественные свои.

Руководители ИБ и топ‑менеджмент в крупных структурах сегодня чаще выбирают первое:
лучше ощутимо потерять в скорости, чем однажды получить неконтролируемый инцидент с ИИ‑сервисом за периметром.

Но по мере того как AI‑разработка становится нормой, эта стратегия всё заметнее бьёт по конкурентоспособности. На фоне лидеров, активно автоматизирующих всё, что можно, компании с «заблокированным Cursor» рискуют проиграть гонку продуктов и талантов.

Куда это всё может прийти

Сама по себе идея «запретить внешние AI‑IDE» вряд ли долговечна. Более устойчивый путь, к которому, вероятно, придут крупные игроки:

  1. Собственные модели и ассистенты на закрытых данных.
  • развёртывание LLM on‑prem или в выделенном контуре;
  • обучение на внутреннем коде с жёсткими политиками доступа и логированием.
  1. Тонкая политика доступа вместо «тотального да/нет».
  • разные уровни прав для разных команд и типов репозиториев;
  • белые списки внешних моделей и сценариев использования.
  1. Инструменты контроля поверх AI‑ассистентов.
  • сканирование сгенерированного кода на утечки и лицензии;
  • аудит промптов и ответа модели, как части secure SDLC.
  1. Обучение разработчиков работе с AI‑инструментами.
  • не только «как ускориться», но и «как не слить данные»
  • формирование культурной нормы: что разрешено отправлять модели, а что нет.

То есть сама «стена» безопасности тоже должна стать умнее.

Итог: переход к политике «только свой AI для своего кода» понятен с точки зрения защиты активов, но в текущем виде часто воспринимается разработчиками как откат в до‑ИИ‑эпоху. Баланс между безопасностью и продуктивностью ещё не найден, и ближайшие годы, скорее всего, пройдут под знаком попыток построить этот баланс — через собственные модели, умные политики и более зрелые подходы к управлению рисками, а не через простые запреты.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/