Даже ИИ деградирует, обучаясь на соцсеточках Учёные из трёх университетов США провели исследование о влиянии соцсетей на большие языковые модели (LLM) ИИ. По аналогии с ухудшением когнитивных функций у людей при перепотреблении "мусорного" контента они предположили, что постоянное "питание" ИИ подобными данными вызовет схожие последствия. Взяли 2 группы LLM: первую дообучили на самых популярных, но низкокачественных постах из соцсетей, вторую — на длинных, осмысленных и непопулярных текстах из тех же источников. У LLM, потреблявших популярный контент, заметно снизились показатели: • качество рассуждений с 74,9% до 57,2%; • способность находить информацию в длинных текстах (на отдельных задачах с 91% до 22%); • риск нарушения запретов и выдача вредных ответов вырос с 61% до 89%; • усилились психопатия (с 2,2% до 75,7%) и нарциссизм (с 33,5% до 47%), снизилась доброжелательность. LLM перестают "думать". В 84% случаев ошибок они просто пропускают анализ и сразу выдают ответ, част