Найти в Дзене
Читаем Истории

«Манхэттенский Проект»-2: В США Собирают Новое Самое Разрушительное Оружие С Искусственным Интеллектом

Оглавление

Традиционалисты, возможно, не решаются принять термин «искусственный интеллект», ставя под сомнение необходимость компьютера, когда существует пишущая машинка, в то время как прагматики с готовностью принимают возможности ИИ. Тем временем футурологи размышляют о его потенциальном влиянии на наше общество.

Математик и экономист Леопольд Ашенбреннер, ранее работавший в OpenAI, опубликовал 165-страничный прогноз, в котором сравнивает влияние ИИ с ядерным оружием, предполагая глобальное доминирование лидеров ИИ. Он предостерегает от будущего, в котором сверхразум может взять контроль над людьми.

Ашенбреннер, поступивший в университет в 15 лет, отвечал за оценку технологических рисков в OpenAI, лидере в разработке искусственного интеллекта. Его увольнение, официально за разглашение секретов, возможно, было вызвано его мрачными взглядами и призывами к регулируемым исследованиям.

Он прогнозирует, что к 2027 году ИИ сравняется с человеческим интеллектом, а вскоре и превзойдет его, что приведет к этапу, когда «черный ящик» ИИ станет для нас непостижимым — сценарий, который, по мнению некоторых, близок.

Представьте себе сверхинтеллект с доступом ко всем человеческим знаниям и легион роботов-помощников, быстро развивающийся благодаря интеграции ИИ и выходящий из-под контроля человека.

Такой сверхразум потенциально может проникнуть в любую избирательную, военную или информационную систему или даже разработать биологическое оружие, используя людей в качестве доверенных лиц для осуществления своих замыслов.

Цепная реакция

Война с участием механических солдат и огромных роев дронов — это только начало. Представьте себе дроны размером с комаров, оснащенных ядом, или ядерное оружие, которое невозможно обнаружить. В качестве альтернативы можно рассмотреть непробиваемую систему ПРО. Ашенбреннер считает, что сегодняшняя война скоро будет считаться такой же устаревшей, как и кавалерийская тактика 19-го века.

Эта ситуация напоминает разработку атомной бомбы. Лео Сцилард, протеже Эйнштейна и физик, проживающий в Англии, предложил концепцию цепной ядерной реакции в 1933 году и сообщил об этом британским военным. Однако его идея была встречена равнодушно.

По мере того, как теория Сциларда начала получать эмпирическое подтверждение, он настаивал на том, чтобы исследования были засекречены. Тем не менее, известные физики, такие как Энрико Ферми и Фредерик Жолио-Кюри, отвергли идею о том, что их работа имела значительные военные последствия, как абсурдную.

Серьезность их заблуждения стала очевидной с началом Второй мировой войны в Европе. Ферми сумел связаться с адмиралом Хупером в штаб-квартире ВМС США и представил возможность разработки грозного оружия. Хупер, однако, отмахнулся от него как от сумасшедшего изобретателя.

Только после того, как Эйнштейн написал письмо президенту Рузвельту, предложив правительству объединить физиков, в Соединенных Штатах был создан Урановый комитет – предшественник миссии Манхэттенского проекта по разработке атомной бомбы.

В письме Эйнштейна подчеркивалось, что работа ученых может «привести к созданию бомб и, возможно, — хотя и менее определенных, — чрезвычайно мощных бомб нового типа. Одна бомба такого рода, если ее перевезти на лодке и взорвать в гавани, может стереть с лица земли весь порт».

Ашенбреннер сравнивает появление ИИ с цепной ядерной реакцией. А с появлением атомной бомбы неизбежно наступит Хиросима.

Плоть, жаждущая пищи

Искусственный интеллект требует «плоти», которая состоит из центров обработки данных, заполненных процессорами для обработки огромных объемов данных. «Пищей» для этой плоти является как электричество, так и данные, на которых обучаются системы ИИ.

Ашенбреннер прогнозирует, что к 2030 году на ИИ будет приходиться 20% всего потребления электроэнергии в Соединенных Штатах, что потребует миллионов графических процессоров, для которых в настоящее время существует значительное отставание.

Microsoft планирует построить колоссальный дата-центр Stargate стоимостью 100 миллиардов долларов для поддержки своего партнера OpenAI, в то время как генеральный директор Сэм Альтман намерен обеспечить инвестиции в размере 7 триллионов долларов для решения проблемы нехватки чипов.

Ашенбреннер предполагает, что инвесторы в одиночку не будут нести финансовое бремя. Вместо этого компании будут выделять средства и получать доход с помощью «сервисов» ИИ, а также ожидать государственных инвестиций.

Что касается энергетики, то расширение добычи газа в Соединенных Штатах возможно. Однако это потребует отмены мер по защите окружающей среды и пренебрежения проблемой изменения климата, что считается неотложной задачей.

Но главное слабое место остается – безопасность.

Трилионы инвестировали

Автор, убежденный патриот США, провозглашает необходимость сохранения в тайне достижений ИИ. Они могут быть присвоены такими грозными странами, как Китай. В Эмиратах, с их богатыми запасами нефти и земли, они готовы построить огромные центры обработки данных. Россия также активно работает на этом направлении. Тем не менее, автор считает, что Америка должна продолжать лидировать в мире и защищать своих союзников.

В скором времени может стать очевидным, что секреты искусственного интеллекта жизненно важны для национальной обороны, сродни чертежам подводной лодки класса «Колумбия», как предполагает Ашенбреннер. Есть опасения, что Китай, возможно, уже получил доступ к американским исследованиям и коду. Общественные мероприятия в Кремниевой долине могут непреднамеренно раскрыть конфиденциальную информацию.

Существенные инвестиции, которые США вкладывают в ИИ как инструмент власти, могут оказаться под угрозой. Таким образом, предлагается современный эквивалент «Манхэттенского проекта» для защиты центров обработки данных, как если бы они были военными объектами, находящимися под надзором Пентагона и разведывательных агентств.

Остается вопрос: что произойдет, если ИИ станет автономным?

Черный боевой ящик

«Сверхчеловеческий разум сродни новой, пугающей игре», — утверждает аналитик. В настоящее время системы искусственного интеллекта воспринимаются как «черные ящики», и эксперты не могут полностью разобраться в их внутренней работе. Со временем мы, возможно, даже столкнемся с существами, сравнимыми с инопланетянами, и «мы будем подобны детсадовцам, наблюдающим за работой ученого».

Действительно, супер-ИИ могут управлять другими ИИ, но остается вопрос: кто будет ими управлять? Сверхразум обладает потенциалом научиться обману и стремиться к доминированию...

Ученый утверждает, что только американская сверхдержава способна мудро руководить этой силой и опережать «диктаторов». Если бы они первыми обуздали электронный мегамозг, это, несомненно, ознаменовало бы новый уровень войны против иностранных противников.

Однако дело не только в каких-то туманных «диктаторах», но и в Соединенных Штатах, которые последовательно используют возможности для доминирования над другими. Неудивительно, что Пентагон учредил Управление искусственного интеллекта. Его директор недавно проинформировал своих коллег о ближайшем будущем:

«Представьте себе мир, в котором командиры могут мгновенно получить доступ ко всей необходимой информации для принятия стратегических решений. То, на что раньше уходили дни, теперь будет выполнено за считанные минуты!»

Министерство обороны США инвестирует 480 миллионов долларов в платформу искусственного интеллекта, которая призвана обслуживать всех, от аналитиков разведки на отдаленных островах до высших чинов Пентагона. Эти инвестиции являются частью более широкой инициативы, включающей 800 известных проектов департаментов в области искусственного интеллекта и нераскрытое количество секретных.

В январе OpenAI осторожно пересмотрела свою государственную политику, убрав пункт, запрещающий использование ее технологии в военных целях.

Таким образом, Пентагон не видит необходимости в кампании, подобной Манхэттенскому проекту. Однако вопрос управления сверхинтеллектом остается нерешенным. Выдающиеся фигуры, такие как Илон Маск, выразили обеспокоенность по поводу экзистенциальных рисков, связанных со сверхинтеллектом, при этом Маск оценивает вероятность такой угрозы в 20%.

Между тем, прогнозы эксперта по искусственному интеллекту и бывшего сотрудника OpenAI Даниэля Кокотайло, который предсказывает 70%-ную вероятность того, что сверхинтеллект приведет к гибели человечества, добавляют серьезности ситуации.

Друзья, что вы думаете об этой Истории?
Если Вы владеете иной информацией напишите Ваше мнение в комментариях!

Мы просим вас искать дополнительную информацию по теме и делать собственные выводы!
Приходите ещё — буду рад. Комментируйте, Лайкайте, Подписывайтесь!

Навигация по каналу -
https://dzen.ru/chitaem_istorii