Найти в Дзене
НИИ Антропогенеза

«The Illusion of Thinking» спровоцировала один из самых непростых научных споров за последнее время в сфере ML, вызвав широкий резонанс в

«The Illusion of Thinking» спровоцировала один из самых непростых научных споров за последнее время в сфере ML, вызвав широкий резонанс в экспертном сообществе ML-исследователи и ученые из Apple попытались представить доказательства фундаментальных ограничений современных ML-моделей (LRM) По мнению Apple, мы наблюдаем не просто ошибку, а свидетельство фундаментального недостатка ML-моделей в их архитектуре, который удалось выявить благодаря контролируемым "стерильным головоломкам" Более того, утверждается, что LRM не обладают масштабируемым механизмом мышления Да, LRM помогают в повседневных делах, написании текста и решении различных логических задач на короткой и средней дистанции, но лишены "разума" ML-модели = прекрасные имитаторы, но они не могут работать с новизной и создавать новое из-за своих фундаментальных ограничений Philanthropy и Anthropic (Claude в качестве соавтора?) пытаются привести контраргумент: «коллапс рассуждений» во многом объясняется превышением лимита ток

«The Illusion of Thinking» спровоцировала один из самых непростых научных споров за последнее время в сфере ML, вызвав широкий резонанс в экспертном сообществе

ML-исследователи и ученые из Apple попытались представить доказательства фундаментальных ограничений современных ML-моделей (LRM)

По мнению Apple, мы наблюдаем не просто ошибку, а свидетельство фундаментального недостатка ML-моделей в их архитектуре, который удалось выявить благодаря контролируемым "стерильным головоломкам"

Более того, утверждается, что LRM не обладают масштабируемым механизмом мышления

Да, LRM помогают в повседневных делах, написании текста и решении различных логических задач на короткой и средней дистанции, но лишены "разума"

ML-модели = прекрасные имитаторы, но они не могут работать с новизной и создавать новое из-за своих фундаментальных ограничений

Philanthropy и Anthropic (Claude в качестве соавтора?) пытаются привести контраргумент: «коллапс рассуждений» во многом объясняется превышением лимита токенов

Модель не «сдается», а всего лишь упирается в технический потолок

Идёт столкновение с жёстким техническим ограничением

Замечание в Apple на использование неразрешимых головоломок…

Исследователи Apple запрограммировали свой автоматический скрипт так, что любой ответ, не содержащий последовательность ходов к решению (которой не существует), считался провалом (оценка «ноль»)

Таким образом, они наказывали модель за проявление логики

Включение таких задач в тест и их неверная оценка привели к искусственному занижению общего балла ML

Критика справедлива