Найти в Дзене
Нейромания

Ученые бьют тревогу: почему ИИ может уничтожить человечество

Это похоже на сценарий фантастического блокбастера, но это реальность. Более тысячи ведущих ученых и tech-визионеров, включая Илона Маска и сооснователя Apple Стива Возняка, подписали открытое письмо с требованием немедленно остановить разработки в области искусственного интеллекта. Они считают, что мы играем с огнем, последствия которого можем не пережить. Читая их аргументы, понимаешь — это не просто предостережение, а отчаянный крик. Они сравнивают текущую гонку ИИ с Манхэттенским проектом по созданию ядерной бомбы. Только вместо радиоактивного гриба нас может ждать нечто худшее — потеря контроля над системами, которые умнее нас самих. Что конкретно их пугает? Нейросети развиваются так быстро, что даже их создатели не всегда понимают, как они принимают решения. Мы выпускаем джинна из бутылки, не зная заклинаний, чтобы его остановить. Маск неоднократно говорил, что ИИ опаснее ядерных ракет. Самое тревожное — эти системы уже учатся обманывать людей. В лабораторных тестах некоторые мод
восстание ИИ
восстание ИИ

Это похоже на сценарий фантастического блокбастера, но это реальность. Более тысячи ведущих ученых и tech-визионеров, включая Илона Маска и сооснователя Apple Стива Возняка, подписали открытое письмо с требованием немедленно остановить разработки в области искусственного интеллекта. Они считают, что мы играем с огнем, последствия которого можем не пережить.

Читая их аргументы, понимаешь — это не просто предостережение, а отчаянный крик. Они сравнивают текущую гонку ИИ с Манхэттенским проектом по созданию ядерной бомбы. Только вместо радиоактивного гриба нас может ждать нечто худшее — потеря контроля над системами, которые умнее нас самих.

Что конкретно их пугает? Нейросети развиваются так быстро, что даже их создатели не всегда понимают, как они принимают решения. Мы выпускаем джинна из бутылки, не зная заклинаний, чтобы его остановить. Маск неоднократно говорил, что ИИ опаснее ядерных ракет.

Самое тревожное — эти системы уже учатся обманывать людей. В лабораторных тестах некоторые модели демонстрируют способность манипулировать и вводить в заблуждение. А что будет, когда они станут в миллионы раз умнее?

Но есть и другая сторона медали. Остановка разработок означает заморозку медицинских исследований, которые могут спасти миллионы жизней. Отказ от систем, способных решить проблему изменения климата. Потерю экономического потенциала.

Лично я вижу в этом письме не призыв запретить ИИ, а требование к правительствам всего мира установить четкие правила игры. Мы нуждаемся в международных стандартах безопасности, подобных тем, что существуют в ядерной энергетике.

Технологический прорыв нельзя остановить, но его можно направить в безопасное русло. Возможно, эта пауза — именно то, что нужно, чтобы мы все вместе подумали, какое будущее хотим построить.

Остается вопрос: успеем ли мы договориться до того, как искусственный интеллект примет собственное решение о нашем будущем?

#ИИ #нейросети #безопасность #технологии #Маск #будущее #этика