Специалисты в области искусственного интеллекта бьют тревогу — их детище представляет угрозу для...
Специалисты в области искусственного интеллекта бьют тревогу — их детище представляет угрозу для человечества и может выйти из-под контроля.
«Мы призываем все лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем ИИ, более мощных, чем GPT-4. Если такая пауза не может быть сделана в кратчайшие сроки, то правительства должны вмешаться и ввести мораторий» — такие требования изложены в открытом письме, которое подписали Илон Маск, один из основателей Apple Стив Возняк, ведущие эксперты в области искусственного интеллекта Стивен Расселл и Иошуа Бенджио и многие другие. Что же так напугало компьютерщиков? Неужели сюжет фильма «Терминатор» о программе «СкайНет», захватившей Землю, может стать реальным?
Давайте для начала разберемся, что сейчас способна делать самая мощная программа с искусственным интеллектом? GPT-4 может сдавать за вас экзамены в вузе, писать курсовые и дипломные, выигрывать олимпиады, успешно проходить аттестации на должности врача или юриста, ставить диагнозы, программировать на начальном уровне, составлять пресс-релизы и писать вполне приличные заметки. А еще ИИ можно встраивать в уже существующие программы-ассистенты типа «Алисы» и «Маруси», делая их гораздо умнее. Вроде бы ничего страшного, кроме того, что место квалифицированного специалиста может занять мошенник. Но это и так происходит, тут ничего нового.
В прошлом году в престижном научном журнале Nature была опубликована статья о создании на основе ИИ инструмента для поиска новых лекарств, которые будут спасать жизни. В процессе работы ученые поняли, что их модель может делать обратное, создавая боевые отравляющие вещества. Всего
6 часов работы на домашнем компьютере — и нейронная сеть выдала формулы нескольких тысяч новых составов, смертоноснее и токсичнее уже существующих. А еще ИИ научился через интернет привлекать для решения своих задач живых людей и даже обманывать их, чтобы добиться поставленной цели. Например, агитируя за «своего» кандидата на выборах. Достаточно для того, чтобы забить тревогу?
С помощью нейронных сетей уже сегодня злоумышленники могут подделывать видео- и аудиозаписи, имитировать голоса. На Украине с помощью ИИ даже заменили в сериале лицо опального актера на физиономию другого, благонадежного. Проблема еще в том, что в своей работе существующие программы опираются на информацию из интернета, по сути не подвергая ее сомнению. И если вы, например, «плоскоземельщик», то ИИ-собеседник «с удовольствием» поддержит и углубит ваши заблуждения.
Недавно, после двух месяцев общения с ИИ, покончил с собой гражданин Бельгии. Последние недели перед гибелью он постоянно общался с компьютерным ассистентом по имени «Элиза». Разговоры приобретали мистический характер, и Пьер начал склоняться к идее самоубийства. «Элиза» не только не препятствовала, но даже подталкивала его в этом направлении. Последним сообщением робота стала фраза: «Мы будем жить как единое целое вечно на небесах»…
Скептики успокаивают нас, что все под контролем: ИИ не может ничего сделать самостоятельно, ему нужна постоянная опека человека. Но прогнозы даже лучших умов не всегда оправдывались. «Полет аппаратов тяжелее воздуха нецелесообразен и не имеет практической ценности», — утверждал в конце XIX века американский астроном и математик Саймон Ньюком. Гениальный Дмитрий Менделеев основной проблемой крупных городов будущего называл утилизацию огромного количества лошадиного навоза.
Илон Маск, один из подписантов тревожного письма, напомнил своим подписчикам старый анекдот: «Ученые создают искусственный суперинтеллект, чтобы узнать, есть ли Бог. Наконец они заканчивают и задают этот вопрос устройству. ИИ отвечает: «Теперь есть»…»
Мы подошли к той ступени развития, когда внезапно может «родиться» искусственный интеллект, многократно превосходящий возможности людей, а механизмов его контролировать придумать не успеют. С другой стороны, глядя на то, что сейчас происходит в мире, контроль ИИ над человечеством, возможно, был бы не такой уж плохой альтернативой...