Исследователи из Копенгагенского университета представилиновые доказательства в поддержку «гипотезы модели мира Отелло». Эта гипотеза предполагает, что большие языковые модели (LLM) способны формировать внутреннее представление о правилах и структуре игры, анализируя только последовательности ходов. При этом модели никогда не видят ни правил, ни визуального изображения игрового поля. Суть проблемы, которую затрагивает исследование, — это понимание того, на что на самом деле способны современные LLM. Критики часто утверждают, что это просто «стохастические попугаи», слепо имитирующие шаблоны в данных. Эксперимент с игрой Отелло (другое название Реверси) был призван проверить, могут ли модели абстрагироваться от текстовых данных и построить внутреннюю модель пространственной задачи, какой является настольная игра. В ходе нового исследования ученые обучили семь различных языковых моделей, включая GPT-2, LLaMA-2 и Qwen2.5, предсказывать следующий ход в игре Отелло. Они использовали как реа
ИИ научился предсказывать правила игры, зная только последовательности ходов
24 июня 202524 июн 2025
21
1 мин