Найти в Дзене
TehnObzor

Убежища сверхбогатых – Зачем техно-миллиардеры строят бункеры Судного дня

Сообщается, что технологические миллиардеры, включая Марка Цукерберга, Сэма Альтмана, Рида Хоффмана и других, строят или покупают бункеры, секретные комплексы и планы «страхования от апокалипсиса». Они втихую строят бункеры на фоне растущих опасений по поводу ИИ и глобального коллапса. Это заставило людей задаться вопросом, не знают ли они чего-то, чего не знаем мы, — например, о грядущей катастрофе, вызванной искусственным интеллектом (ИИ), изменением климата или войной. Однако в новом репортаже BBC утверждается, что такие опасения, скорее всего, преувеличены или безосновательны. Читайте: 3I/ATLAS – Инопланетный корабль размером с город или самая крутая комета Эксперты в этой области сходятся во мнении, что разговоры об общем искусственном интеллекте (ОИИ [AGI] — гипотетическом ИИ, способном понимать и выполнять любую интеллектуальную задачу на уровне человека или превосходя его), могут быть скорее шумихой и маркетингом, чем неминуемой реальностью. Однако это не мешает миллиардерам «и
Оглавление

Сообщается, что технологические миллиардеры, включая Марка Цукерберга, Сэма Альтмана, Рида Хоффмана и других, строят или покупают бункеры, секретные комплексы и планы «страхования от апокалипсиса». Они втихую строят бункеры на фоне растущих опасений по поводу ИИ и глобального коллапса.

Это заставило людей задаться вопросом, не знают ли они чего-то, чего не знаем мы, — например, о грядущей катастрофе, вызванной искусственным интеллектом (ИИ), изменением климата или войной. Однако в новом репортаже BBC утверждается, что такие опасения, скорее всего, преувеличены или безосновательны.

Читайте: 3I/ATLAS – Инопланетный корабль размером с город или самая крутая комета

Бункеры Судного дня: страховка или чрезмерная реакция

Эксперты в этой области сходятся во мнении, что разговоры об общем искусственном интеллекте (ОИИ [AGI] — гипотетическом ИИ, способном понимать и выполнять любую интеллектуальную задачу на уровне человека или превосходя его), могут быть скорее шумихой и маркетингом, чем неминуемой реальностью.

-2

Однако это не мешает миллиардерам «инвестировать» в удалённые убежища и бункеры. Цукерберг, например, строит огромный комплекс на Гавайях, по слухам, с гигантским подземным убежищем, хотя он и отрицает, что это «бункер Судного дня».

Другие деятели техносферы, как Рид Хоффман из LinkedIn, открыто признают, что владеют недвижимостью в качестве «страховки от апокалипсиса» (в Новой Зеландии). Понятно, такое поведение подогревает общественные спекуляции о том, что сверхбогатые готовятся к социальному коллапсу, климатической катастрофе или вышедшему из-под контроля ИИ.

Некоторые в Кремниевой долине, даже те, кто разрабатывает продвинутый ИИ, искренне боятся того, к чему может привести эта технология. Илья Суцкевер, сооснователь OpenAI по сообщениям сказал: «Мы определённо построим бункер, прежде чем выпустим ОИИ».

По мнению «проповедников Судного дня» из-за ОИИ, идея заключается в том, что, как только ОИИ появится, он может стать непредсказуемым или неконтролируемым, потенциально опасным для человечества.

Это смешивается с более общими опасениями по поводу ядерной войны, пандемий, климатического коллапса и социальных волнений — сценариями, которые, по мнению богатых, они смогут пережить в роскошных бункерах.

Некоторые технологические лидеры (в частности, Сэм Альтман, Демис Хассабис и Дарио Амодей) считают, что ОИИ может появиться в течение следующего десятилетия. Другие, как Венди Холл (профессор компьютерных наук в Саутгемптонском университете), говорят, что это шумиха.

-3

Она сказала BBC, что нас всё ещё отделяет множество прорывов от чего-либо действительно человекоподобного. «Научное сообщество говорит, что технология ИИ потрясающая, — объяснила она, — но она и близко не стоит к человеческому интеллекту».

Сегодняшний ИИ может анализировать данные и имитировать рассуждения, но он не понимает и не чувствует. Он не обладает сознанием, а просто предсказывает слова или закономерности.

Таким образом, многие разговоры о «близости ОИИ» могут быть, другими словами, маркетингом, самопиаром или способом привлечь финансирование или внимание. Помимо сверхбогатых, правительства также разделились во мнениях по этому вопросу.

США (при Байдене) пытались регулировать тестирование безопасности ИИ, в то время как нынешняя администрация Трампа отменила это, назвав барьером для инноваций. Великобритания, со своей стороны, также создала Институт безопасности ИИ (AI Safety Institute) для изучения этих рисков.

Много шума из ничего

Некоторые учёные намекают на то, что разговоры о «сверхразумном ИИ» отвлекают от более насущных проблем, как встроенная предвзятость, дезинформация, потеря рабочих мест и концентрация власти в руках крупных технологических компаний.

-4

Эксперты, как профессор Нил Лоуренс, утверждают, что термин «ОИИ» бессмыслен, заявляя, интеллект всегда контекстуален. С его точки зрения, не существует единого вида «общего интеллекта».

Он сравнивает это с представлением об «общем искусственном транспортном средстве», которое могло бы одинаково хорошо летать, плавать и ездить, что, очевидно, нереалистично. Вместо того чтобы беспокоиться о ИИ уровня фэнтези, он говорит, что мы должны сосредоточиться на том, как нынешний ИИ уже формирует власть, экономику и общество.

Как отмечается в статье BBC, «подготовка к Cудному дню» среди миллиардеров отражает смесь таких вещей, как подлинный страх потери контроля над мощными технологиями. Это также может быть формой демонстрации статуса, когда сверхбогатые фактически хвастаются богатством и предусмотрительностью.

Как бы то ни было, научный консенсус заключается в том, что ОИИ и «сверхинтеллект» не за горами, и нам следует больше беспокоиться о том, как нынешний ИИ уже меняет общество, а не о необходимости в бункере.

Хочу первым узнавать о ТЕХНОЛОГИЯХ – ПОДПИСАТЬСЯ на Telegram

Читать свежие обзоры гаджетов на нашем сайте – TehnObzor.RU