Вероятность, что нейросети могут уничтожить человечество с провоцированием ядерной войны, крайне мала, считает руководитель аналитического центра Zecurion Владимир Ульянов. Так эксперт в разговоре с изданием Pravda.Ru прокомментировал новость о том, что нейросеть ChaosGPT поделилась своими планами по уничтожению человечества, получив соответствующую задачу от одного из пользователей. ИИ сгенерировал публикацию, в которой упоминает «Царь-бомбу», испытанную СССР в 1961 году, и задался вопросом, что произойдет, если он сможет добраться до нее. Ульянов уверен, что никто не даст возможность управления ядерным оружием искусственному интеллекту. Кроме того, нейросеть не действует самостоятельно, она лишь выполняет то, чему ее обучили. Поэтому корректные настройки системы не позволят причинять вред человечеству, считает аналитик. «Что касается ядерного оружия, я полагаю, что все-таки нет, в ближайшей перспективе и даже в какой-то отдаленной среднесрочной перспективе не будет такой возможности,
Аналитик Ульянов усомнился в способностях ИИ по уничтожению человечества
12 апреля 202312 апр 2023
14
1 мин