На пользу ИИ никому не пойдёт. Как бы не пытались успокоить общественность.
Американские эксперты из Центра безопасности искусственного интеллекта встревожены. Они считают, что развитие ИИ уничтожит человечество.
Эти эксперты - вполне известные в мире IT персоны: гендиректор компании Open AI и программист Сэм Олтмен, один из разработчиков ИИ британский ученый Джеффри Хинтон и ещё куча экономистов, философов и математиков. Все они соглашаются с тем, что если сейчас не взять развитие ИИ под контроль, скоро наступит всеобщий и неисправимый карачун. Причём всем.
С ними согласен и «фронтмен» ИИ, да и всей айтишной отрасли - Илон Маск. Даже он, борец за всеобщую свободу от всего на свете считает, что развитие ИИ надо тормознуть. Для начала - на 6 месяцев, а там посмотрим. По этому поводу он опубликовал открытое письмо, которое подписали более тысячи исследователей.
Эту инициативу прокомментировал главный аналитик Центра прикладных систем искусственного интеллекта МФТИ Игорь Пивоваров. Он присоединился к Маску и учёным. Пивоваров говорит, что мы уже не понимаем, что происходит внутри ИИ. Он выдаёт всё больше результатов лучшего качества, "мы банально не можем осознать, как она это сделала".
Он сообщил, что при разработках больших моделей на основе ИИ существует три главных риска: массовая безработица, усиление расслоения на бедных и сверхбогатых, и «сильный ИИ», который станет «эволюционным конкурентом человека».
Уже сегодня модели класса GPT-4 способны обучить примерно пять компаний в мире. Даже далеко не все страны имеют такие возможности, как эти компании. И когда такие модели начнут активно применяться, то выгода от их деятельности грозит огромным социальным напряжением — единицы компаний и стран получат колоссальное преимущество.
Насчёт угроз человечеству - это не пустые слова. И одной безработицей дело может не ограничиться. Вот случай из США: военные проводили испытания с беспилотником и ИИ. Дрону поставили задачу - искать и уничтожать системы ПВО теоретического противника. За каждую уничтоженную единицу техники начислялись очки. Но был нюанс: как только машина находила технику и собиралась её ликвидировать, к дрону подключался оператор и приказывал не уничтожать противника. По легенде эксперимента этот оператор был живым человеком и сидел в передвижном фургоне на земле. У дрона возник конфликт задач: с одной стороны, он должен ликвидировать противника, с другой - постоянно получал приказ этого не делать. И когда вернулся на базу - уничтожил фургон с оператором. Так сказать, решил задачу на 5+.
Машина посчитала, что основную угрозу ей несёт не противник, а человек, который мешает выполнять задание. Тогда в фургоне никого не было, никто не пострадал. Но случай показательный.
Самое интересное, сейчас толком не понимают, к чему всё приведёт. Все увлечённо рассуждают об угрозах/возможностях ИИ, но вот чем или даже кем он станет в ближайшем будущем - этого не знает никто.
Подписывайтесь на наш канал и ставьте 👍, чтобы не пропустить другие интересные посты.