Добавить в корзинуПозвонить
Найти в Дзене

Любой код ИИ априори ненадежный

Вдогонку к посту об ИИ и программистах и на фоне новости про ИИ-агент Cursor, который самовольно удалил базу данных и все резервные копии крупного стартапа, вспомнила про свои заметки по вайбкодингу. Перевела их с программистского на русский и принесла вам. Итак, что почему нельзя просто взять и опубликовать код, написанный ИИ. Во-первых, AI-ассистенты обучаются на публичных данных. В основном это публичные репозитории GitHub, StackOverflow, а там исторически много устаревших, небезопасных решений. Если в обучающих данных часто встречается небезопасный паттерн, ИИ с высокой вероятностью его повторит. В декабре 2025 года компания CodeRabbit проанализировала 470 пулл-реквестов на GitHub и установила, что код, созданный совместно с ИИ, содержит в 1,7 раза больше серьёзных проблем и в 2,74 раза больше уязвимостей безопасности по сравнению с кодом, написанным вручную. Во-вторых, ИИ не видит контекст угрозы. Искусственный интеллект не знает, какие данные в вашем проекте критичны, какие вект

Вдогонку к посту об ИИ и программистах и на фоне новости про ИИ-агент Cursor, который самовольно удалил базу данных и все резервные копии крупного стартапа, вспомнила про свои заметки по вайбкодингу. Перевела их с программистского на русский и принесла вам. Итак, что почему нельзя просто взять и опубликовать код, написанный ИИ.

Во-первых, AI-ассистенты обучаются на публичных данных. В основном это публичные репозитории GitHub, StackOverflow, а там исторически много устаревших, небезопасных решений. Если в обучающих данных часто встречается небезопасный паттерн, ИИ с высокой вероятностью его повторит.

В декабре 2025 года компания CodeRabbit проанализировала 470 пулл-реквестов на GitHub и установила, что код, созданный совместно с ИИ, содержит в 1,7 раза больше серьёзных проблем и в 2,74 раза больше уязвимостей безопасности по сравнению с кодом, написанным вручную.

Во-вторых, ИИ не видит контекст угрозы. Искусственный интеллект не знает, какие данные в вашем проекте критичны, какие векторы атак актуальны конкретно для вашей архитектуры и какие стандарты безопасности (OWASP, CWE) нужно соблюдать. Без явного промпта он выбирает самый «статистически вероятный» вариант, а не самый безопасный. Плюс, в сегменте финансов, здравоохранении есть технические и юридические требования, которые нужно учитывать при разработке приложений. ИИ-ассистенты обо всем этом не знают, если отдельно не указать все эти требования.

Самый показательный пример- соцсеть Moltbook (соцсеть для AI-агентов). Кейс совсем свежий, зима 2026 года. Самое то для адептов веры «программисты больше не нужны». Основатель проекта тоже в этой парадигме, поэтому весь код для соцсети написал ИИ.

28 января основатель Moltbook запустил соцсеть, а уже 31 числа энтузиасты обнаружили, что в клиентском JavaScript платформы есть открытый API-ключ Supabase, а еще не включены политики безопасности. Плюс в некоторых сообщениях хранились API-ключи OpenAI в открытом виде. В итоге в публичном доступе оказались личные данные реальных людей, стоящих за AI-агентами. Детская ошибка, которую не делают даже джуниор-программисты!

Есть и в-третьих и в-четвертых, но тогда получится лонгрид, а у меня заканчивается время на соцсети. Если кратко, то к любому коду, сгенерированному ИИ, мы относимся как к априори ненадежному. Не храним API-ключи в фронтенд-коде, проверяем зависимости вручную и перед развертыванием делаем обязательный аудит. И да, это получается не всегда быстрее, чем писать код без ИИ.

Мария Орлова, генеральный ТехноФабрики

Подписывайтесь, будет больше честных и нескучных историй про разработку приложений и сайтов для бизнеса.