Найти в Дзене
Наука и будущее

Искусственный интеллект начал «есть сам себя». Почему это стало проблемой для науки

Ещё несколько лет назад ИИ обучался на книгах, научных статьях, живых дискуссиях и человеческом опыте. Сегодня ситуация меняется: всё больше контента в интернете создаётся самими алгоритмами — и именно его новые модели используют для обучения. В результате возникает замкнутый круг: ИИ обучается на тексте, который написал другой ИИ.
Для науки и технологий это тревожный сигнал. Такой контент внешне

Ещё несколько лет назад ИИ обучался на книгах, научных статьях, живых дискуссиях и человеческом опыте. Сегодня ситуация меняется: всё больше контента в интернете создаётся самими алгоритмами — и именно его новые модели используют для обучения. В результате возникает замкнутый круг: ИИ обучается на тексте, который написал другой ИИ.

Для науки и технологий это тревожный сигнал. Такой контент внешне выглядит убедительно, но часто содержит упрощения, ошибки или логические провалы. Если модель учится на синтетических текстах, она не становится умнее — она постепенно теряет связь с реальностью, повторяя и усиливая чужие неточности.

Учёные называют это «деградацией данных». Со временем ответы ИИ становятся более гладкими, но менее точными. Исчезают редкие факты, сложные формулировки, нестандартные идеи. Модель начинает говорить уверенно, но всё более шаблонно — как учебник, переписанный сто раз.

Решение ищут в фильтрации данных, маркировке ИИ-контента и возврате к «человеческим источникам»: научным журналам, архивам, интервью, полевым исследованиям. Но это дорого и сложно, особенно в эпоху гонки за скоростью.

Главный риск не в том, что ИИ «обманет» пользователя. Опаснее другое: мы можем получить технологию, которая выглядит как знание, но постепенно отрывается от реального мира. И именно наука первой сталкивается с этим эффектом.