«The Illusion of Thinking» спровоцировала один из самых непростых научных споров за последнее время в сфере ML, вызвав широкий резонанс в экспертном сообществе ML-исследователи и ученые из Apple попытались представить доказательства фундаментальных ограничений современных ML-моделей (LRM) По мнению Apple, мы наблюдаем не просто ошибку, а свидетельство фундаментального недостатка ML-моделей в их архитектуре, который удалось выявить благодаря контролируемым "стерильным головоломкам" Более того, утверждается, что LRM не обладают масштабируемым механизмом мышления Да, LRM помогают в повседневных делах, написании текста и решении различных логических задач на короткой и средней дистанции, но лишены "разума" ML-модели = прекрасные имитаторы, но они не могут работать с новизной и создавать новое из-за своих фундаментальных ограничений Philanthropy и Anthropic (Claude в качестве соавтора?) пытаются привести контраргумент: «коллапс рассуждений» во многом объясняется превышением лимита ток
«The Illusion of Thinking» спровоцировала один из самых непростых научных споров за последнее время в сфере ML, вызвав широкий резонанс в
18 июня 202518 июн 2025
1
1 мин