Исследователи предупреждают: большие языковые модели начинают хуже рассуждать и чаще выдавать ошибки, если обучаются на больших объемах низкокачественного контента — особенно популярного в социальных сетях. Об этом говорится в работе, опубликованной на сервере препринтов arXiv, сообщает служба новостей Nature. Ученые из Техасского университета в Остине изучили влияние «мусорных» данных — коротких поверхностных постов, сенсационных материалов — на поведение ИИ. Анализ касался способности моделей извлекать информацию из длинных текстов, логики ответов, этики и проявления моделью «личностных черт». Выяснилось, что чем больше доля таких данных в обучении, тем чаще модели пропускают логические шаги и дают неправильные ответы, в том числе при тестах с выбором варианта. Руководитель исследования Чжанъян Ван напоминает старый принцип инженеров ИИ: «мусор на входе — мусор на выходе». Новый анализ лишь подтверждает важность отбора данных. Ученые использовали миллион публичных постов из популярно
Слишком много соцсетей вызывает «гниение мозга» даже у ИИ — исследование
1 ноября 20251 ноя 2025
38
2 мин