Найти в Дзене
PythonTalk

📉 Скорость х2, качество /2

CodeRabbit проанализировали сотни PR в опенсорсе (сравнили чисто человеческие и AI-ассистированные) и выкатили отчет, результаты такие: 1️⃣ Количество багов выше в 1.7 раза. В среднем, AI-генерируемый код приносит на 70% больше проблем, чем написанный кожаным мешком. Причем речь не о мелких опечатках, а о критических уязвимостях. 2️⃣ Читаемость кода хуже в 3 раза. Нейронки генерируют синтаксически верный, но абсолютно "пластиковый" код. Он выглядит нормально издалека, но нарушает локальные конвенции, нейминг и структуру. Читать это через полгода будет больно. 3️⃣Ошибки в бизнес-логике (+75%). AI не понимает ваш бизнес. Он понимает статистическую вероятность следующего токена. В итоге мы получаем код, который запускается и работает, но делает не то, что нужно. 4️⃣ Дыры в безопасности (x2.7). Хардкод паролей, небезопасные прямые ссылки на объекты, игнорирование санитайзинга данных. Нейронки радостно тащат в продакшен легаси-паттерны десятилетней давности, на которых они обучались. �

📉 Скорость х2, качество /2

CodeRabbit проанализировали сотни PR в опенсорсе (сравнили чисто человеческие и AI-ассистированные) и выкатили отчет, результаты такие:

1️⃣ Количество багов выше в 1.7 раза.

В среднем, AI-генерируемый код приносит на 70% больше проблем, чем написанный кожаным мешком. Причем речь не о мелких опечатках, а о критических уязвимостях.

2️⃣ Читаемость кода хуже в 3 раза.

Нейронки генерируют синтаксически верный, но абсолютно "пластиковый" код. Он выглядит нормально издалека, но нарушает локальные конвенции, нейминг и структуру. Читать это через полгода будет больно.

3️⃣Ошибки в бизнес-логике (+75%).

AI не понимает ваш бизнес. Он понимает статистическую вероятность следующего токена. В итоге мы получаем код, который запускается и работает, но делает не то, что нужно.

4️⃣ Дыры в безопасности (x2.7).

Хардкод паролей, небезопасные прямые ссылки на объекты, игнорирование санитайзинга данных. Нейронки радостно тащат в продакшен легаси-паттерны десятилетней давности, на которых они обучались.

👉 Почему так происходит?

Нейронки оптимизированы на создание видимости правильного решения (surface-level correctness).

AI не знает архитектуру вашего монолита, не помнит, почему в 2019 году Вася написал этот костыль, и не думает о том, как это будет масштабироваться. Они жертвуют эффективностью ради простоты генерации и оптимизирует локальную задачу, игнорируя глобальную систему.

В итоге мы имеем классическую ловушку: джуны и мидлы радуются, что закрыли тикет за час, а сеньоры и лиды вешаются на код-ревью. Это явление уже назвали "Reviewer Fatigue" — когда поток AI-шлака настолько плотный, что замыленный глаз пропускает критические баги.

Учитесь читать код, а не только генерировать его. Иначе скоро вашу работу заменит скрипт, который делает то же самое, но бесплатно (и так же плохо).

-2
-3
-4