Британские программисты обучили ИИ играть в старые аркады на игровой приставке. Для этого они использовали нейронную сеть собственной разработки. Теперь она играет лучше любого из людей на планете!
Одной из игр, которой обучили ИИ, был легендарный «теннис»:
Внизу экрана вправо и влево перемещается ракетка, которой нужно отбивать мячик. Но не просто так, а чтобы он отлетел и попал в цветные кирпичики, разбив как можно больше из них. Вверху экрана из таких кирпичиков «построена» целая стена.
ИИ обучали играть в «ретро-теннис» самостоятельно, без помощи людей. Нейросеть только получала информацию о заработанных очках. Больше — ни одной подсказки. Поэтому эффективность игры ИИ оценивал только по баллам.
Первое время нейросеть играла в «теннис» плохо. ИИ регулярно промахивался, не попадал по мячикам, не разбивал кирпичи. Но постепенно качество игры нейронной сети улучшалось.
Ученые фактически оставили нейросеть одну — позволили ей «играть» всю ночь без наблюдения людей. К утру, ИИ сделал в игре «скачок» — многократно повысил свой уровень.
Дело в том, что нейронная сеть обнаружила трюк, который позволял ей одним движением зарабатывать в игре сразу 100 баллов. Этот трюк ИИ запомнил, и стал многократно повторять.
Суть действий нейросети такова:
- Одним движением ИИ направлял мячик в 1 точку, «пробивая» в кирпичной стене узкий ход.
- Через этот ход следующим движением ИИ перекидывал мячик.
- Мячик, прыгая по стене сверху, сам разбивал разноцветные кирпичи — все больше, больше и больше.
Гениально!
Так нейросеть без усилий зарабатывала очки. В итоге эффективность игры ИИ составила более 1300%! В то время, как человек смог показать результат лишь в 100%.
Теперь нейронная сеть умеет играть в «ретро-теннис» круче любого из людей.
Фактически то, что произошло, доказывает, что ИИ может обучить людей новому. Это открытие ученые опубликовали в одном из научных журналов — Nature.