Найти тему
РИАМО

«Попытки ограничить развитие ИИ ни к чему не приведут»: эксперты о письме Маска и Возняка

   кадр из фильма "Бегущий по лезвию 2049" (2017) ©кадр из фильма "Бегущий по лезвию 2049" (2017)
кадр из фильма "Бегущий по лезвию 2049" (2017) ©кадр из фильма "Бегущий по лезвию 2049" (2017)

Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и еще около тысячи специалистов в развитии искусственного интеллекта призвали немедленно приостановить обучение систем «умного компьютера». О том, почему эту идею вряд ли поддержат разработчики, РИАМО рассказали эксперты по изучению ИИ.

Почему предложили остановить развитие ИИ?

   Кадр из фильма "Я, робот" (2004) ©Кадр из фильма "Я, робот" (2004)
Кадр из фильма "Я, робот" (2004) ©Кадр из фильма "Я, робот" (2004)

В последние месяцы лаборатории по разработке искусственного интеллекта устроили настоящую гонку вооружений, создавая все более мощные «нечеловеческие умы».

Напомним, что технологическая компания OpenAI в ноябре 2022 года выпустила чат-бот ChatGPT с искусственным интеллектом на базе языковой модели GPT-3.5. Спустя всего два месяца после выхода демоверсии чат-бот стал самым быстрорастущим приложением в истории. Вскоре о собственных версиях умной нейросети сообщили Google, Microsoft, Yandex и другие корпорации.

14 марта 2023 года OpenAI представила языковую модель GPT-4. В новой версии у ИИ появилась возможность интерпретировать не только текст, но и изображения. Также она теперь распознает схематичные образы, в том числе и нарисованные от руки. После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, что вызвало недовольство у многих разработчиков.

«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта», — следует из письма, опубликованного на сайте некоммерческой организации Future of Life.

Авторы, в том числе глава SpaceX Илон Маск и соучредитель Apple Стив Возняк, призвали лаборатории по развитию искусственного интеллекта немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4.

Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда появится уверенность, что их эффекты будут положительными, а риски — управляемыми. Однако, это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки, — следует из доклада.

«Остановка развития ИИ — это бред»

   Кадр из фильма "Матрица: Перезагрузка" (2003) ©Кадр из фильма "Матрица: Перезагрузка" (2003)
Кадр из фильма "Матрица: Перезагрузка" (2003) ©Кадр из фильма "Матрица: Перезагрузка" (2003)

«Я не вижу аргументов в пользу замораживания ИИ», — говорит эксперт по развитию искусственного интеллекта, автор и ведущий youtube-канала «Душкин объяснит» Роман Душкин.

Замораживание таких исследований, по его мнению, сопоставимо с приостановкой ядерных разработок. Никто не станет останавливать изучение ядерных технологий, потому что они в первую очередь обеспечивают современные условия качественной жизни.

«Технологии ИИ тоже нацелены на улучшение жизни и безопасность граждан, кроме этого они положительно влияют на развитие отраслей экономики. Говорить о том, что нужно прекратить все исследования на шесть месяцев — это бред какой-то. Складывается впечатление, что Илон Маск пытается сдержать развитие своей бывшей компании OpenAI, которую он покинул в 2018 году. И кто эти тысячи ученых, которые подписали письмо? Я знаю, что уже обнаружились фейковые фамилии», - считает Душкин.

Чем опасен искусственный интеллект?

   Кадр из фильма "Матрица: Революция" (2003) ©Кадр из фильма "Матрица: Революция" (2003)
Кадр из фильма "Матрица: Революция" (2003) ©Кадр из фильма "Матрица: Революция" (2003)

Киберэксперт Сергей Вакулин считает, что искусственный интеллект уже превосходит человека по некоторым параметрам. Понимая его могущество, власти или злоумышленники могут эксплуатировать ИИ во вред человечеству. Например, на конференции «Армия 2022» в России показали робота-пса с прикрепленным к нему противотанковым гранатометом. Если такие технологии окажутся в свободном доступе, это может спровоцировать военные конфликты, терроризм, воровство, вандализм и прочее.

«Все боятся, что искусственный интеллект станет настолько мощным, что решит пойти против своего создателя. А вот топор может пойти против хозяина? Вряд ли, если только он не окажется в «злых руках». Технологии искусственного интеллекта — это инструменты. В зависимости от того, кто их использует, инструменты будут действовать на пользу или во вред», - считает Роман Душкин.

Он также отмечает, что задача государства как регулятора заключается в недопущении попадания технологии ИИ в руки злоумышленников.

ИИ не остановить

   Кадр из фильма "Я, робот" (2004) ©Кадр из фильма "Я, робот" (2004)
Кадр из фильма "Я, робот" (2004) ©Кадр из фильма "Я, робот" (2004)

Эксперты считают, что попытки ограничить развитие ИИ ни к чему не приведут. По словам Душкина, если США и остановятся, то остальные страны — вряд ли. Мир вошел в стадию гонки вооружения в области искусственного интеллекта.

«Китай будет только рад, если в США возьмут паузу. России это тоже выгодно. Мы будем развивать свои технологии, поскольку не обязаны прислушиваться к рекомендациям недружеского государства», - считает эксперт.