С достаточно большим набором данных модель-трансформер ИИ способна заменить, с некоторыми оговорками, специализированную шахматную программу. Ученые из Google DeepMind полагают, что это очередное подтверждение тому, что модель-трансформер является универсальной архитектурой, которую можно применять для решения любых задач. Недавние прорывные успехи в машинном обучении в основном объясняются масштабом: а именно большим числом параметров у моделей ИИ и наборами обучающих данных беспрецедентного объема и "неожиданными когнитивными способностями обучения".
В статье, которую опубликовали исследователи из Google DeepMind, исследуется влияние масштабных моделей, обученных в игру в шахматы. В отличие от традиционных шахматных программ, которые полагаются на сложную эвристику, архитектурный поиск или комбинацию, исследователи обучили модель-трансформер с 270 млн параметров на наборе данных из 10 млн партий. Каждая партия в наборе данных была размечена символами действий, предоставленными трад