Найти тему
SM NEWS

Маск, Возняк и другие исследователи технологий ИИ заявили об их опасности

ООО «СДК»📷
ООО «СДК»📷

Генеральный директор SpaceX Илон Маск, сооснователь Apple Стив Возняк, писатель Юваль Ной Харари и другие публичные деятели и ведущие исследователи в области высоких технологий подписали открытое письмо с предложением приостановить на полгода обучение нейросетей. За это время подписанты предлагают разработать протоколы безопасности использования искусственного интеллекта. Текст послания публикует Иносми.

В письме в частности говорится, что системы искусственного интеллекта могут представлять глубинную опасность для общества и человечества из-за своей конкурентоспособными в решении общих задач. Отмечается, что машинное обучение может выйти из-под контроля.

"Надо ли развивать нечеловеческий разум, который в конечном счете превзойдет нас числом, перехитрит и заменит как безнадежно устаревших? Можем ли мы рисковать утратой контроля над всей нашей цивилизацией?", - задаются вопросами авторы послания.

Они призывают всех исследователей машинного обучения приостановить на шесть месяцев обучение систем ИИ мощнее GPT-4. Со своей стороны правительства должны ввести мораторий на такие исследования. Лаборатории ИИ и независимые эксперты за время перерыва смогут совместно определиться с правилами безопасности при разработке нейросетей, считают авторы открытого письма.