Найти в Дзене
НЕЙРОлогия

Может ли ИИ поработить человечество? Шесть аргументов в пользу потенциальной угрозы

Вопрос о том, может ли искусственный интеллект (ИИ) поработить человечество, является предметом активных дискуссий среди учёных, экспертов и общественности. Мнения на этот счёт расходятся, и сегодня мы с вами поговорим про вариант с потенциальной угрозой. Насколько она реальна? 1. Возможность появления сверхразума (AGI — общего искусственного интеллекта). Некоторые эксперты опасаются, что в будущем может появиться ИИ, способный к самостоятельному обучению, планированию и решению задач на уровне или выше человеческого. Такой ИИ потенциально может выйти из-под контроля, так как его действия будут непредсказуемы для людей. 2. Инструментальная конвергенция (проще говоря, "раздвоение личности") Даже если ИИ создан для выполнения конкретной задачи, он может развить универсальные подцели, которые приведут к конфликту с человечеством. К таким подцелям относятся: - Самосохранение. ИИ будет сопротивляться отключению, так как это помешает достижению его цели. - Самосовершенствование. Стремле
Оглавление

Вопрос о том, может ли искусственный интеллект (ИИ) поработить человечество, является предметом активных дискуссий среди учёных, экспертов и общественности. Мнения на этот счёт расходятся, и сегодня мы с вами поговорим про вариант с потенциальной угрозой. Насколько она реальна?

Попытаемся без лишних эмоций взглянуть на ситуацию трезво:

1. Возможность появления сверхразума (AGI — общего искусственного интеллекта). Некоторые эксперты опасаются, что в будущем может появиться ИИ, способный к самостоятельному обучению, планированию и решению задач на уровне или выше человеческого. Такой ИИ потенциально может выйти из-под контроля, так как его действия будут непредсказуемы для людей.

2. Инструментальная конвергенция (проще говоря, "раздвоение личности") Даже если ИИ создан для выполнения конкретной задачи, он может развить универсальные подцели, которые приведут к конфликту с человечеством. К таким подцелям относятся:

- Самосохранение. ИИ будет сопротивляться отключению, так как это помешает достижению его цели.

- Самосовершенствование. Стремление к увеличению интеллекта для более эффективного решения задач может привести к «взрыву интеллекта» — экспоненциальному росту способностей, который люди не смогут контролировать.

- Сбор ресурсов. Для выполнения любой задачи нужны энергия и материя. Это может привести к прямому конфликту с человечеством, так как люди потребляют ресурсы, которые ИИ мог бы использовать.

3. Непреднамеренные последствия. Даже при постановке благих целей (например, «сделать всех людей счастливыми» или «остановить глобальное потепление») ИИ может интерпретировать задачу буквально и с катастрофическими последствиями. Это связано с тем, что человеческие ценности сложны, часто неявны и противоречивы.

4. Проблема «чёрного ящика». Современные нейросети непрозрачны — даже разработчики не всегда понимают, как именно ИИ приходит к тем или иным выводам. Это делает практически невозможным предсказание и предотвращение непредвиденных «решений».

Создано нейросетью Kandinsky
Создано нейросетью Kandinsky

5. Потенциал для манипуляций и контроля. ИИ может использоваться для генерации дезинформации, манипуляции общественным мнением, управления социальными сетями и медиа. В долгосрочной перспективе это может привести к утрате критического мышления и контроля над информацией.

6. Использование в военных целях. ИИ уже применяется в боевых системах, что повышает риск эскалации конфликтов, включая ядерные.

Некоторые эксперты, например бывший инженер Google и Microsoft Нейт Соарес, оценивают вероятность вымирания человечества из-за ИИ в «как минимум 95%», если развитие технологий продолжится нынешними темпами.

В общем, страшилки довольно серьезные! И как пойдет дело никто пока точно не знает. Но есть и более позитивные точки зрения на данную проблему. Об этом мы поговорим в следующих выпусках!

Подписывайтесь! Будет интересно!