Мир искусственного интеллекта прошел долгий путь с момента своего появления, и с каждым днем мы видим, как разрабатываются все новые и более совершенные приложения для искусственного интеллекта. Однако с этими разработками приходят опасения и опасения по поводу того, что эти машины могут сделать, если попадут не в те руки. И теперь эти опасения, возможно, только что стали реальностью.
Недавно выяснилось, что китайский ИИ AlphaWar играет в военные игры как человек, но более того, военные стратеги не могут идентифицировать его как машину. Это тревожное событие, поскольку оно предполагает, что мы приближаемся к созданию машин, которые могут не только думать и действовать как люди, но и превосходить их в определенных областях.
ИИ, созданный группой под руководством профессора Хуанга Кайци из Института автоматизации Китайской академии наук в Пекине, как сообщается, ведет себя точно так же, как человек, когда играет в военные игры. Военные стратеги с многолетним опытом игры против людей-противников не смогли отличить AlphaWar от многораундовой машины.
Это важное событие, потому что оно означает, что AlphaWar прошла тест Тьюринга, предназначенный для измерения способности машины демонстрировать интеллектуальное поведение, эквивалентное человеческому или неотличимое от него. Это эталонный тест, который считается важной вехой в развитии искусственного интеллекта.
Согласно статье, опубликованной в китайскоязычном журнале Acta Automatica Sinica 17 февраля 2023 года, команда ИИ заявила, что AlphaWar прошла тест Тьюринга. Однако команда не предоставила никаких подробностей о том, когда тест был пройден, заявив лишь, что это было еще в 2020 году.
Что больше всего беспокоит, так это то, что новость о достижении AlphaWar держалась в секрете в течение двух лет. Непонятно, почему это произошло, но вызывает вопросы о намерениях тех, кто разрабатывал и испытывал машину.
Разработка AlphaWar — не единичный случай. В США DARPA запустило Deep Green, программу разработки военных игр с ИИ в 2007 году. В 2020 году, после того как Deep Green была прекращена, DARPA запустило еще одну программу, Game Breaker. Непонятно, что происходит в России в связи с этим, но миру остается только надеяться, что страны используют эти приложения ИИ в мирных целях.
Одна из основных проблем, связанных с развитием ИИ, заключается в том, что в конечном итоге он может превзойти человеческий интеллект и стать неуправляемым. По мере того, как машины становятся более интеллектуальными и мощными, увеличивается и вероятность их использования в разрушительных целях. Это серьезное беспокойство для военных стратегов, поскольку ИИ может быть использован для создания оружия, более мощного и смертоносного, чем все, что мы видели раньше. Разработка AlphaWar поднимает вопросы о будущем ИИ и его последствиях для вооруженных сил. Если машины могут думать и действовать как люди, возникает вопрос, следует ли к ним относиться как к таковым. Обладают ли они теми же правами и свободами, что и люди, или они просто машины, которые люди используют и контролируют? Еще одной проблемой является возможность использования ИИ для создания фейковых новостей и пропаганды. С машинами, которые могут думать и действовать как люди, становится легче создавать убедительную ложь и дезинформацию, которые могут повлиять на общественное мнение и даже повлиять на исход выборов.
В заключение следует отметить, что разработка китайского искусственного интеллекта AlphaWar является важной вехой в области искусственного интеллекта, но она также вызывает серьезные опасения по поводу будущего этой технологии. По мере того, как машины становятся все более совершенными и интеллектуальными, становится все более важным обеспечить их использование в мирных целях, а не для создания оружия массового уничтожения или для манипулирования общественным мнением. Мир должен объединиться, чтобы регулировать разработку и использование ИИ, чтобы гарантировать, что он используется для улучшения общества, а не как средство разрушения. Будущее ИИ видится светлым, но мы должны действовать осторожно и не давать ИИ бразды правления.