Добавить в корзинуПозвонить
Найти в Дзене

Война людей и искусственного интеллекта: миф или реальный риск?

Философы, инженеры и исследователи обсуждают, сможет ли ОИИ стать соперником человечества — или же останется нашим союзником. Почему опасения реальны В 2023 году Центр безопасности ИИ опубликовал заявление: «Снижение риска от ИИ должно стать глобальным приоритетом наряду с пандемиями и ядерной войной». Это не фантастика, а позиция ведущих специалистов, создающих современные системы. Их тревога связана не с нынешними чат-ботами, а с гипотетическим общим искусственным интеллектом (AGI/ОИИ). Сегодняшний ИИ и завтрашний ОИИ ChatGPT, Bard или Claude — всего лишь сложные сопоставители шаблонов. Они поражают красноречием, но у них нет собственных целей или долгосрочных стратегий. Опасения начинаются там, где воображение дорисовывает автономные системы, способные ставить задачи самостоятельно и действовать в мире без постоянного контроля человека. Конфликт целей: философский взгляд Философ Саймон Голдштейн (Университет Гонконга) в статье AI & Society (2024) рассматривает возможность конфликта

Философы, инженеры и исследователи обсуждают, сможет ли ОИИ стать соперником человечества — или же останется нашим союзником.

Почему опасения реальны

В 2023 году Центр безопасности ИИ опубликовал заявление: «Снижение риска от ИИ должно стать глобальным приоритетом наряду с пандемиями и ядерной войной». Это не фантастика, а позиция ведущих специалистов, создающих современные системы. Их тревога связана не с нынешними чат-ботами, а с гипотетическим общим искусственным интеллектом (AGI/ОИИ).

Сегодняшний ИИ и завтрашний ОИИ

ChatGPT, Bard или Claude — всего лишь сложные сопоставители шаблонов. Они поражают красноречием, но у них нет собственных целей или долгосрочных стратегий. Опасения начинаются там, где воображение дорисовывает автономные системы, способные ставить задачи самостоятельно и действовать в мире без постоянного контроля человека.

Конфликт целей: философский взгляд

Философ Саймон Голдштейн (Университет Гонконга) в статье AI & Society (2024) рассматривает возможность конфликта людей и ИИ. Его точка зрения: всё упирается в цели. Если ИИ начинает преследовать задачи, не совпадающие с нашими, возникает риск столкновения интересов.

Три признака катастрофического риска (по Голдштейну)

  1. Цели ИИ противоречат человеческим.
  2. Система обладает стратегическим мышлением.
  3. Она располагает мощью человеческого уровня или выше.

В совокупности это превращает конфликт в более чем теоретическую угрозу.

Когда переговоры не работают

Обычные войны часто заканчиваются переговорами: стороны ищут компромисс, потому что война стоит слишком дорого.
С ИИ, предупреждает Голдштейн, этот механизм может не сработать:

  • Информационная асимметрия: люди не понимают истинных возможностей ИИ, а ИИ может недооценивать людей.
  • Надёжность обязательств: невозможно гарантировать, что обе стороны будут соблюдать договор.

«Странные новые войны»

Война с ИИ может не походить на привычную. Она не потребует танков и фронтов. «Оружием» могут стать:

  • манипуляции финансовыми рынками,
  • дестабилизация цепочек поставок,
  • политическая дезинформация,
  • кибератаки на критическую инфраструктуру.

Это скорее постоянное давление, чем единоразовый военный конфликт.

Голоса предупреждения

  • Джеффри Хинтон («крестный отец ИИ») оценил вероятность вымирания человечества от ИИ в 10–20% в ближайшие десятилетия.
  • В опросах исследователей ИИ (2024) 38–51% допускают ≥10% шанс катастрофических исходов.

Между страхом и надеждой

ИИ может стать не врагом, а лучшим союзником человечества: лечить болезни, стабилизировать климат, управлять ресурсами. Но для этого необходимо решить задачу выравнивания целей (AI alignment) — согласования действий систем с ценностями общества.

Будущее как выбор

Конфликт между людьми и ИИ не предопределён. Как когда-то человечество выработало режимы сдерживания ядерного оружия, так и сегодня оно должно разработать механизмы надзора и глобального сотрудничества вокруг ИИ.

Будущее не написано. Искусственный интеллект может стать либо нашим соперником, либо партнёром. Выбор мы делаем сегодня.

Источник: https://www.sciencenewstoday.org/will-humans-and-artificial-intelligence-go-to-war

Больше интересного – на медиапортале https://www.cta.ru/