Добавить в корзинуПозвонить
Найти в Дзене
Пономарь

Гонка разработчиков искусственного интеллекта напоминает гонку вооружений в XX веке.

Илон Маск и другие технологические лидеры призвали приостановить обучение систем ИИ, более мощных, чем GPT-4 на полгода.
Авторы открытого письма, которое подписали более 1,1 тысячи человек, предупредили об опасности создания систем, которые способны конкурировать с человеческим интеллектом и потребовали разработки протоколов безопасности. Из письма Илона Маска и его сторонников можно сделать вывод, что нынешнее состояние области искусственного интеллекта напоминает прошлое столетие, когда ученые активно работали над созданием ядерного оружия. После того, как была продемонстрирована его разрушительная мощь, ученые стали заботиться о том, чтобы контролировать его использование и предотвращать его распространение. Таким образом, была создана МАГАТЭ, которая отвечает за контроль атомной энергии, а между странами заключены договоры о нераспространении и неприменении ядерного оружия.
Технологии искусственного интеллекта могут оказывать такое же влияние на человечество, как ядерное оружие.

Илон Маск и другие технологические лидеры призвали приостановить обучение систем ИИ, более мощных, чем GPT-4 на полгода.

Авторы открытого письма, которое подписали более 1,1 тысячи человек, предупредили об опасности создания систем, которые способны конкурировать с человеческим интеллектом и потребовали разработки протоколов безопасности.

Из письма Илона Маска и его сторонников можно сделать вывод, что нынешнее состояние области искусственного интеллекта напоминает прошлое столетие, когда ученые активно работали над созданием ядерного оружия. После того, как была продемонстрирована его разрушительная мощь, ученые стали заботиться о том, чтобы контролировать его использование и предотвращать его распространение. Таким образом, была создана МАГАТЭ, которая отвечает за контроль атомной энергии, а между странами заключены договоры о нераспространении и неприменении ядерного оружия.

Технологии искусственного интеллекта могут оказывать такое же влияние на человечество, как ядерное оружие. Однако, в отличие от взрывов, это воздействие проявляется через негативные последствия неконтролируемого использования ИИ. На сегодняшний день между несколькими крупнейшими компаниями существует своего рода "гонка вооружений" в области искусственного интеллекта. Разработчики продолжают быстро развивать эту технологию, открывая для нее все новые возможности, но часто без должной проверки безопасности и оценки потенциальных последствий.

Важно понимать, что эта гонка не дает возможности задуматься о безопасности систем ИИ, а цель заключается в опережении конкурентов. Авторы письма призывают не политиков, а их коллег - ученых и разработчиков ИИ - остановиться и договориться о новых правилах игры. Необходимо создать ИИ, который будет работать только на благо человека и не причинять ему вред.