Новое исследование, проведённое Техасским университетом в Остине, Техасским университетом A&M и Университетом Пердью, предполагает, что у больших языковых моделей может развиться своего рода «гниение мозга ИИ», если они обучаются на том же мусоре, который засоряет вашу ленту в социальных сетях. Исследователи под руководством Цзюньюаня Хуна (ныне работающего в Национальном университете Сингапура) хотели выяснить, что происходит, когда модели искусственного интеллекта поглощают контент, вызывающий выброс дофамина, который подпитывает вашу бесконечную прокрутку. Они постоянно обучали модели с открытым исходным кодом, такие как Llama от Meta и Qwen от Alibaba, на вирусных постах, напичканных такими словами, как «вау», «только сегодня» или «посмотрите». Именно такие слова, оптимизированные для SEO, должны быть в заголовках, чтобы генерировать клики. После этого качество работы LLM резко ухудшилось. Модели стали глупее и злее. Их способность рассуждать снизилась, как и способность запоминать