Исследователи из команды машинного обучения Apple опубликовали работу, которая ставит под сомнение способности современных «рассуждающих» языковых моделей к настоящему мышлению. Команда под руководством Паршина Шоджаи изучила так называемые Large Reasoning Models (LRM) — модели, которые генерируют развернутые мыслительные процессы перед выдачей ответа. И выводы получились довольно неутешительными для адептов искусственного интеллекта. Оказалось, что эти продвинутые модели демонстрируют полный провал точности при превышении определенного уровня сложности задач. Более того, они показывают парадоксальное поведение: усилия на «размышления» растут с усложнением проблемы до определенной точки, а затем резко снижаются, несмотря на достаточный лимит токенов. Похоже на студента, который сначала старательно решает простые примеры, а потом сдается перед сложными уравнениями. Сравнивая LRM с обычными языковыми моделями при равных вычислительных ресурсах, исследователи выделили три режима работы.
Исследователи из команды машинного обучения Apple опубликовали работу, которая ставит под сомнение способности современных «рассуждающих
11 июня 202511 июн 2025
1 мин