Парадокс последних лет в том, что искусственный интеллект не упрощает разработку — он делает её строже. И в этом есть ирония: десятилетиями мы знали, каким должен быть «хороший код», но почти всегда откладывали это «на потом». Теперь же ИИ просто отказывается работать в бардаке. Статья Steve Krenzel на платформе Bits of Logic формулирует это максимально жёстко:
если у тебя нет тестов, типов и чёткой структуры — AI-агент не помощник, а катастрофа на автопилоте. Люди умеют компенсировать хаос интуицией. Мы догадываемся, «что тут имелось в виду», игнорируем странные имена функций и держим половину логики в голове. ИИ так не умеет. 🤖 Контекст для него — это код
Если кодовая база противоречива, агент начинает усиливать эти противоречия. 🧹 Эффект «робота-пылесоса»
ИИ честно двигается вперёд и размазывает проблему по всей системе, если его не ограничить. 🧭 Без правил нет направления
LLM не знает, что «красиво» или «правильно» — только что разрешено, а что запрещено. В итоге AI не прощает т