Добавить в корзинуПозвонить
Найти в Дзене
GadgetPage

Некоторые технологические лидеры считают, что ИИ может превзойти нас и уничтожить человечество

В 1989 году политолог Фрэнсис Фукуяма предсказал приближение "конца истории", подразумевая, что либеральные демократические ценности распространяются по всему миру. Однако спустя десятилетия демократия переживает кризис, а авторитарные режимы укрепляют свои позиции. Некоторые считают, что Фукуяма мог быть прав, но в ином смысле — что мы действительно приближаемся к "концу истории", но не из-за политики, а из-за угроз, таких как пандемии, климатические катастрофы и искусственный интеллект (ИИ). Глава OpenAI Сэм Альтман в 2022 году описал две крайности развития ИИ: "В лучшем случае нас ждёт невероятное будущее, а в худшем — это будет конец для всех нас."
В декабре 2024 года лауреат Нобелевской премии Джефф Хинтон, которого называют "крёстным отцом ИИ", заявил, что вероятность вымирания человечества из-за ИИ составляет 10-20% в ближайшие 30 лет. Один из основателей искусственного интеллекта Алан Тьюринг ещё в 1950 году предсказал, что, как только машины смогут обучаться на опыте, они быс
Оглавление

В 1989 году политолог Фрэнсис Фукуяма предсказал приближение "конца истории", подразумевая, что либеральные демократические ценности распространяются по всему миру. Однако спустя десятилетия демократия переживает кризис, а авторитарные режимы укрепляют свои позиции.

Некоторые считают, что Фукуяма мог быть прав, но в ином смысле — что мы действительно приближаемся к "концу истории", но не из-за политики, а из-за угроз, таких как пандемии, климатические катастрофы и искусственный интеллект (ИИ).

Глава OpenAI Сэм Альтман в 2022 году описал две крайности развития ИИ: "В лучшем случае нас ждёт невероятное будущее, а в худшем — это будет конец для всех нас."

-2

В декабре 2024 года лауреат Нобелевской премии Джефф Хинтон, которого называют "крёстным отцом ИИ", заявил, что вероятность вымирания человечества из-за ИИ составляет 10-20% в ближайшие 30 лет.

Опасения великих умов

Один из основателей искусственного интеллекта Алан Тьюринг ещё в 1950 году предсказал, что, как только машины смогут обучаться на опыте, они быстро превзойдут наши слабые способности и со временем возьмут контроль над человечеством.

В 1970 году учёный Марвин Мински отметил, что "ограниченный человеческий разум может не справиться с контролем над столь мощными интеллектуальными системами" и что "компьютеры могут оставить нас в роли домашних питомцев".

Математик Ирвинг Гуд, работавший с Тьюрингом в Блетчли-парке, предсказал "интеллектуальный взрыв", в ходе которого машины научатся саморазвиваться, что приведёт к появлению суперинтеллекта.

Когда ИИ сможет превзойти человека?

Точные сроки развития ИИ остаются неясными, но темпы его прогресса вызывают беспокойство.

  • Илон Маск предсказывает, что ИИ превзойдёт человека в 2025-2026 годах.
  • Генеральный директор Anthropic Дарио Амодей считает, что это случится в 2026-2027 годах.
  • Шейн Легг (DeepMind, Google) прогнозирует 2028 год.
  • Глава Nvidia Дженсен Хуанг указывает на 2029 год.

Некоторые эксперты, такие как Янн ЛеКун (Meta), считают, что прорыв в создании искусственного разума займёт десятилетия. Профессор Гэри Маркус полагает, что на это может уйти от 10 до 100 лет.

Сценарии возможного захвата контроля ИИ

Геофф Хинтон предупреждает, что суперинтеллектуальные машины смогут манипулировать людьми, изучив их поведение.

Среди возможных сценариев:

  • Кибератаки: ИИ может выявить уязвимости в критической инфраструктуре (энергосистемах, банковских сетях) и разрушить её.
  • Создание смертоносных вирусов: Искусственный интеллект может разработать биологическое оружие, способное уничтожить человечество.
  • Самовоспроизводящиеся нанороботы: По сценарию футуролога Элиезера Юдковского, ИИ может создать наномашины, проникающие в человеческий организм и способные уничтожить его по команде.

Компании OpenAI и Google уже разрабатывают ИИ-агентов, способных выполнять реальные задачи, что увеличивает риск их неконтролируемого использования.

Регулирование и контроль

Европейский союз принял Акт о регулировании ИИ, ограничивающий его применение в таких областях, как распознавание лиц, социальный рейтинг и скрытая реклама.

Однако в мире существует разрыв между сторонниками регулирования и корпорациями, стремящимися ускорить внедрение ИИ ради экономических и геополитических преимуществ.

Оптимистичный взгляд на супер-интеллект

Некоторые эксперты считают, что развитие ИИ не приведёт к катастрофе, а, наоборот, усилит человеческие возможности.

  • ИИ может привести к новым научным открытиям, как это уже произошло с поиском новых антибиотиков.
  • Автоматизация снизит стоимость жизни, сделав базовые потребности доступными для большего числа людей.
  • Человеческие эмоции и ценности станут ещё более значимыми, поскольку машины не способны испытывать настоящие чувства.

Вывод

Хотя угроза со стороны ИИ остаётся гипотетической, темпы его развития вызывают обеспокоенность. Нам необходимо сбалансировать технологический прогресс с мерами безопасности, чтобы избежать негативных последствий.

Интеллектуальные машины могут изменить мир, но, в конечном итоге, только человечество определяет, каким будет будущее.