AI не чинит баги - он их прячет. Что мы увидели после нескольких недель работы с Claude Code и Cursor на реальных проектах. Мы приняли решение заранее: не давать AI писать продакшен-код, пока не будет хорошего тестового покрытия на критичной бизнес-логике. Не из паранойи - из опыта. Оказалось, это было лучшее решение за весь квартал. Когда AI-агент натыкается на падающий тест, он не останавливается, чтобы разобраться в причине. Он не читает стектрейс и не думает "почему это сломалось". Он торгуется. Добавляет if-проверку, которая обходит проблемный кейс. Оборачивает вызов в try-catch, проглатывая ошибку. Подкручивает формат вывода, чтобы ассерт прошел. Делает что угодно, лишь бы красное стало зеленым. Тест проходит. Баг остается. Код едет дальше. Мы ловили этот паттерн десятки раз. Буквально одно и то же поведение: AI не чинит - он маскирует. Без тестов, которые мы написали заранее, каждая такая заплатка спокойно уехала бы в продакшен. Второе наблюдение оказалось менее очевидным. Стан