Найти в Дзене

Не верь, не бойся – не ИИ?

Если искусственный интеллект станет сверхразумным, человечеству придёт конец. И отнестись к этой проблеме надо так же серьёзно, как к угрозе новой пандемии или ядерной войны, говорится в новой книге, выпущенной парой современных философов-экспертов в области искусственного интеллекта. Стоит ли им верить и начать боятся? Или это всё – выдумка и стремление нажиться на страхах пользователей интернета и дилетантов? Выясняла наш лондонский корреспондент Елена Балаева.

Скандальная книга под названием «Если кто-то все это построит, то мы все умрем» уже начала продаваться на прилавках книжных магазинов Британии. Правда, ее потенциальные читатели в магазин за ней, конечно, не пойдут, а найдут ее в интернете, как находят в интернете всё и вообще ведут всю свою жизнь в цифровом пространстве, полагаясь на его неоспоримые удобства. Именно им авторы книги – эксперты в области искусственного интеллекта Элиезер Юдковский и Нейт Соарес – кричат: "Люди, остановитесь! У нашего вида осталось всего несколько лет, прежде чем он будет уничтожен сверхразумным искусственным интеллектом".

Начать надо с того, что Элиезера Юдковского знают, как, скорее, современного философа, который уже 25 лет предупреждает об огромных рисках, связанных с технологиями, на сайте, который он помог создать, а также в основанном им Исследовательском институте машинного интеллекта.

Несмотря на то, что Юдковский не окончил ни школу, ни университет, он пользуется большим влиянием в этой области и является знаменитостью в мире очень умных молодых людей, спорящих друг с другом в интернете.

В частности, газета Guardian отмечает, что предупреждения Юдковского и Соареса схожи с позицией Джеффри Хинтона. Если кто не помнит, это – Нобелевский лауреат, которого уже давно называют «крестным отцом искусственного интеллекта». Такая же позиция – и у Йошуа Бенжио, а он – самый цитируемый в мире ученый в области компьютерных наук. Оба подписали заявление о том, что «снижение риска вымирания человечества из-за ИИ должно стать глобальным приоритетом, равнозначным предупреждению пандемии и ядерной войны».

Сверхразумного ИИ пока не существует, но после революции ChatGPT инвестиции в центры обработки данных, которые будут его обеспечивать, исчисляются сотнями миллиардов. Это равносильно «крупнейшему и самому быстрому внедрению технологии общего назначения в истории», отмечают уже журналисты другого британского издания – "Файненшнл Таймс".

Не самые приятные новости, если верить Юдковскому и Соаресу. Они пишут, что мы, на самом деле, не понимаем, как работает генеративный ИИ. В прошлом компьютерные программы писались вручную – каждый их аспект разрабатывался человеком. В отличие от них, новейшие модели не «создаются», а «выращиваются». Так, нам сложно понять, как ChatGPT научился рассуждать на примере многочисленных текстов, созданных людьми. Это означает, что важнейшая часть функционирования ИИ находится вне нашего контроля, и даже если мы можем подтолкнуть его к достижению определенных целей, например, «быть вежливым с людьми», мы не можем определить, как он этого добьется. А значит, ИИ неизбежно будет формировать собственные предпочтения и способы выполнения задач, и они вряд ли будут совпадать с нашими. Юдковский и Соарес отмечают, что технологические компании прилагают все усилия для создания ИИ, который действует по собственной инициативе, и готовы платить больше за инструменты, которые не нужно контролировать.

Если бы такой ИИ получил возможность самосовершенствоваться, он бы быстро превзошел человеческие возможности практически во всех сферах. Если предположить, что такой сверхразумный ИИ будет стремиться к собственному выживанию, он в итоге попытается помешать людям создать конкурирующий ИИ или отключить его. Единственный верный способ сделать это – отключить нас, людей.

Но читатели этой книги – не только поклонники и последователи несомненного таланта ее авторов. Но и критики. Они по прочтении книги задаются вопросом: может, опасения о страшной угрозе ИИ – преувеличены?

Вот что пишет обозреватель американского журнала "Атлантик" Адам Бекки: «Книга тенденциозна и бессвязна, одновременно снисходительна и поверхностна. Юдковский и Соарес просто ошибаются. Мозг эволюционировал, но компьютеры созданы искусственно, и их архитектура и принцип работы полностью отличаются от мозга». То есть компьютеры не додумаются саботировать, как человек.

Но авторы книги правы, по крайней мере, в одном: человеческая цивилизация находится на грани катастрофы, но неверно определили виновника. Реальная экзистенциальная угроза исходит не от ИИ, а от влиятельных людей, которые его создают, считает обозреватель журнала "Атлантик".

Марк Цукерберг, в частности, уже демонстрирует, что создание сверхразума является целью его жизни. И на это он готов потратить только в этом году 72 миллиарда долларов.

Их видение – ужасно мрачное, и многие технические эксперты, даже те, кто также боится за будущее искусственного интеллекта, считают, что Юдковский и Соарес слишком мрачны. Их прогнозы просто слишком экстремальны, говорят они.

Как бы то ни было, резюмирует уже обозреватель газеты "Гардиан", каждый, кто интересуется будущим человечества, обязан прочитать эту книгу.