Элиезер Юдковский, исследователь искусственного интеллекта, известный своим пессимистическим мировоззрением, вновь выступил с мрачным предсказанием о судьбе человечества. В недавнем интервью газете The Guardian Юдковский выразил уверенность в том, что сроки выживания человечества кажутся значительно короче, чем считалось ранее, и оценивает их в ближайшие пять-десять лет.
Тревожное заявление Юдковского об «оставшейся временной шкале» намекает на надвигающуюся угрозу машинного апокалипсиса или антиутопического сценария, напоминающего научно-фантастические повествования, такие как «Терминатор» или «Матрица». Несмотря на мрачный характер своего предсказания, он подчеркнул важность признания невеликих шансов человечества на выживание среди технологических достижений, возглавляемых искусственным интеллектом.
Интервью с Юдковским является частью более широкого исследования The Guardian скептицизма, окружающего некритическое внедрение новых технологий, особенно искусственного интеллекта. Видные голоса в этой области, в том числе Брайан Мерчант и Молли Крэбэппл, выразили обеспокоенность по поводу потенциальных последствий внедрения технологий, которые могут разрушить отрасли и дестабилизировать занятость.
Замечания Юдковского в интервью вызвали споры, особенно его предыдущее предложение о бомбардировке центров обработки данных, чтобы сдержать рост искусственного интеллекта. Хотя он признал, что пересмотрел формулировку своего заявления, он подтвердил свою позицию о необходимости устранения экзистенциальной угрозы, исходящей от ИИ. Однако он больше не выступает за использование ядерного оружия для нанесения ударов по центрам обработки данных.
Поскольку дебаты об этических последствиях и рисках ИИ продолжают обостряться, суровое предсказание Юдковского служит отрезвляющим напоминанием о критическом этапе, в котором находится человечество, призывая к осторожному подходу к развитию технологий искусственного интеллекта.