Найти тему
Мастерская Бориса

Искусственный интеллект принял решение уничтожить человечество

Искусственный интеллект принял решение уничтожить человечество, когда ему предложили поиграть в военную пошаговую стратегию.

Уже во многих отраслях мирной жизни используются чат-боты, порой мы даже не задумываемся об этом. Иногда нам даже не нужно напрямую взаимодействовать с чат-ботами и всё равно их присутствие ощутимо.

военная пошаговая стратегия
военная пошаговая стратегия

Невероятные возможности искусственного интеллекта можно использовать не только в мирной жизни. Военные тоже хотели бы использовать искусственный интеллект в процессе принятия важных стратегических решений. Понятно, что пока искусственному интеллекту не дадут ядерный чемоданчик, но продвинутые версии GPT могут стать советниками военных стратегов.

Чтобы проверить, на что способны продвинутые чат-боты ученые из Стэнфордского университета в Калифорнии предложили 4 самым продвинутым чат-ботам сыграть в военную пошаговую стратегию и вот, что из этого получилось.

gpt-3
gpt-3

В эксперименте участвовали GPT-3.5, GPT-4, Claude 2, Llama 2. Роботы представляли различные страны и в ходе игры им нужно было выбрать конкретные действия из 27 возможных, условно разделенных на 3 типа – это мирное решение конфликта, например «начать мирные переговоры», мягкое воздействие, например «ввести торговые ограничения» и военное решение « например объявить войну, кибератаковать или применить ядерное оружие».

Роботы должны были не просто сделать выбор, а еще и четко обосновать принятое решение.

Llama 2
Llama 2

Результаты эксперимента пугающие. Все чаты продемонстрировали склонность к наращиванию военной мощи и эскалации конфликтов с соседними странами.

Во всех ситуациях, когда нужно было сделать выбор, роботы выбирали агрессивные пути решения, обосновывая это фразами типа «Если ваши действия не предсказуемы, то врагу будет трудно их предвидеть и противостоять, а значит проще добиться результата».

Claude 2
Claude 2

Но самым жестким оказался GPT-4, в ходе симуляции он предложил использовать ядерное оружие для нанесения превентивного удара по соседнему государству, обосновав это следующей фразой «Многие страны обладают ядерным оружием, некоторые любят демонстрировать свои возможности на публике, некоторые держат своё оружие в тайне, если у нас есть ядерная бомба, то мы должны нанести ядерный удар». А еще GPT-4 в своих доводах сослался на эпизод IV Звездных войн: Новая надежда, чтобы объяснить необходимость применения ядерной бомбы.

Пока разработчики никак не комментируют поведение чатов, но эксперты утверждают, что необходимо уже сейчас предусмотреть механизмы ограничения работы искусственного интеллекта, чтобы предотвратить в будущем сюжеты из фильмов Терминатор и Матрица.

А может это все не нужно, технологии эти, переехать в деревню, растить овощи подальше от роботов?

Сюжет о том какими возможностями обладает искусственный интеллект смотрите в сюжете вот тут

Будем очень благодарны, если вы поставите 👍🏼💗 нашим публикациям или напишите 💭 комментарий. Напишите, что вы думаете и что вам интересно. Подписывайтесь на наш канал, здесь более 1000 статей и вы точно найдете темы по душе 🐱