Все мы в детстве играли в прятки, и, наверное, каждый испытывал это неприятное ощущение, когда тебя уже начали искать, а ты не успел спрятаться как следует.
Похоже, что в будущем дети смогут получать подробную аналитику со стратегиями на свой девайс еще до игры — две недели назад лаборатория OpenAI выпустила Искусственный Интеллект, который может играть в прятки.
Виртуальные игроки, движимые AI, играли в очень простую версию игры, где «водящие» получали очки, когда «прячущиеся» находились в поле их зрения. «Прячущиеся» вначале имели немного времени, чтобы забежать за укрытие и получали очки, когда успешно спрятались; обе стороны могли перемещать объекты вокруг игрового поля (например, блоки, стены и пандусы) для получения преимущества.
Результаты этого простого теста оказались довольно впечатляющими. В течение 481 миллиона игр в прятки, AI постепенно разрабатывал стратегии и контрстратегии для того, чтобы победить, а виртуальные игроки проходили путь от рандомного бега по игровому полю к координации со своими союзниками.
Важно понимать, что ни одна из демонстрируемых ниже стратегий не преподносилась AI напрямую или даже не поощрялась: виртуальные игроки получали награды только тогда, когда побеждали. Тем не менее, этого простого стимула было достаточно, чтобы побуждать к творческому поведению в игре.
Ниже представим основные стратегии, которые придумывал AI в процессе эволюции от нулевой игры до игры под номером 481 000 000:
Этап 1 эволюции: как водить и прятаться
AI потребовалось несколько миллионов игр для того, чтобы понять правила игры — гоняться друг за другом по карте и искать «прячущихся» / скрываться от «водящих».
Этап 2 эволюции: построение защитных укрытий
Виртуальные игроки имели возможность заблокировать элемент карты, чтобы команда соперников не могла сдвинуть их с места. Вскоре, «прячущиеся» научились конструировать из таких блоков защитные укрытия.
Этап 3 эволюции: использование пандусов для проникновения в укрытие
Миллионы игр спустя «водящие» придумали, как справиться с этим поведением «прячущихся»: они перетаскивали к укрытию пандус, взбирались по рампе в укрытие и выигрывали игру.
Ответ «прячущихся» не заставил долго ждать — они начали блокировать пандусы для того, чтобы «водящие» не могли сдвинуть их с места и проникнуть в укрытие. На этом моменте эволюции большинство сотрудников OpenAI думало, что победная стратегия найдена. А вот и нет!
Этап 4 эволюции: использование ящиков для входа в укрытие
Поскольку «прячущиеся» блокировали пандусы, и «водящим» было невозможно сдвинуть их с места, чтобы проникнуть в укрытие, «водящие» начали использовать замороженные пандусы для того, чтобы взбираться на ящики, а потом скользили на ящиках к укрытиям и спрыгивали в них.
Этап 5 эволюции: защита от коробочного серфинга
Ответ «прячущихся» не заставил себя ждать — используя свой изначальный временной гандикап на полную мощность, они начали блокировать абсолютно все элементы карты. После этого «водящие» потеряли какие-либо шансы проникнуть в укрытие.
Многие разработчики AI считают, что подобное обучение можно использовать и для решения сложных стратегических задач, влияющих на реальную жизнь. Однако, у таких методов есть и обратная сторона — видя, насколько творчески самообучаемые алгоритмы могут подходить даже к такой простой задаче, как игра в прятки, есть риск, что излишняя креативность будет мешать выполнению основной задачи.
В целом, по мере того как системы AI становятся все более и более мощными, человечество должно тщательно продумать, как обеспечить, чтобы они делали то, что мы от них хотим.
#наука #технологии #искусственный интеллект #игры #funky ai