Разговоры про ИИ почти всегда строятся вокруг роста. Больше моделей, больше вычислений, больше возможностей. Но есть ограничение, о котором говорят реже. Данные. Большинство современных моделей обучаются на том, что уже создано людьми. Тексты, изображения, код, решения, ошибки. Этот массив не бесконечен и, что важнее, он постепенно исчерпывается. Часть данных становится недоступной. Часть закрывается. Часть замещается контентом, созданным самим ИИ. И в этот момент система начинает учиться на собственных копиях. Снаружи это может выглядеть как прогресс. Модели становятся быстрее, ответы — увереннее, формулировки — чище. Но внутри растёт риск зацикливания. ИИ начинает воспроизводить усреднённые версии прошлого, а не находить новое. Когда свежих данных становится меньше, возрастает роль допущений. Модель всё чаще опирается не на реальность, а на вероятностные конструкции. Именно здесь усиливаются галлюцинации, уверенные ошибки и повторяемость мыслей. Это не означает, что развитие останови
Что произойдёт, когда данных для обучения ИИ станет недостаточно
3 дня назад3 дня назад
1 мин