Найти тему

На фоне неутихающих страстей журналистов и внешних экспертов по поводу опасностей ИИ для человечества интересно взглянуть на статистику мнений (а не громкие отдельные высказывания) тех, кто реально в этом поле работает. Вот как раз опубликованы методически вполне корректные результаты такого опроса среди 4271 исследователя, чьи работы были приняты конференциями NeurIPS или ICML в 2021.


Их мнения относительно HLMI разнятся (да, используется не расхожий и смутный термин Общий ИИ, а более внятный прагматичный HLMI - подразумевающий, что unaided machines can accomplish every task better and more cheaply than human workers и не обсуждающий вопросы самосознания).

Выводы в целом довольно спокойные: агрегированный прогноз наступления такого машинного интеллекта указывает на примерно 2060 год; медиана ответов про катастрофические результаты достижения HLMI составляет около 10%. Цифра внешне не кажется пугающей, но желающих играть в русскую рулетку с револьвером, у которого барабан на 10 патронов, довольно мало, поэтому неудивительно, что 69% респондентов считают, что надо поднять приоритет исследований на тему безопасности разработки ИИ, благо время вполне есть.


(Полный материал - https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/ ) Спасибо Лёше Тихонову за интересную ссылочку
1 минута