Приветствую на канале НЕ ТОЛЬКО ИИ.
В середине мая этого года немецкий журнал Der Spiegel провел интервью с Ореном Этциони, исследователем ИИ, генеральным директором Института искусственного интеллекта имени Пола Аллена (США), и его отцом Амитаем Этциони, бывшим, до своей недавней кончины, одним из влиятельных интеллектуалов. Так, в интервью, проведенному корреспондентом Александром Демлингом, они обсудили вопросы безопасности ИИ.
Итак, посмотрим, какие опасения вызывает ИИ в настоящий момент. (Интервью приведено в сокращенном виде).
DER SPIEGEL: Первый вопрос к вам обоим, отцу и сыну Этциони. Вы боитесь искусственного интеллекта?
Орен Этциони: Искусственный интеллект — это не существо вроде Голема или монстра Франкенштейна, это просто инструмент, хотя и очень мощный. Я не боюсь самого инструмента, я боюсь того, как люди его используют. Например, злоумышленники или государства-изгои.
Амитай Этциони: В какой-то момент во время промышленной революции человек потерял контроль над технологическим и экономическим прогрессом. С тех пор он изо всех сил пытается восстановить этот контроль. Искусственный интеллект делает эту гонку еще быстрее и (человеку) все труднее выиграть. В то же время появляются новые социальные движения, которые не хотят такого общества, в котором эти силы господствуют над нами.
DER SPIEGEL: Имеются ли в настоящее время люди (сообщества), протестующие против искусственного интеллекта?
Амитай Этциони: По крайней мере, предвестники… В конце концов, ИИ — это лишь верхушка айсберга гораздо более масштабного конфликта в нашем обществе: кто в центре — человек или машина?
Орен Этциони: Мой отец и я не совсем согласны по этому вопросу. Я думаю, что идея о заговоре ИИ против человечества…, и о том, что он выходит из-под контроля, — это научная фантастика. Технологии, конечно, не нейтральны, но, в конце концов, решения принимают люди. И влиятельные люди, управляющие этими инструментами, — не политики, а технические предприниматели. Такой силой обладают Марк Цукерберг и Илон Маск, но не AlphaGo. ( Примечание редактора: AlphaGo — это программа искусственного интеллекта, которая победила лучших в мире в настольной игре Го в 2017 году .)
DER SPIEGEL: Ваш коллега Джеффри Хинтон, который заложил научную основу для нынешнего бума ИИ, стал бояться своего творения.
Орен Этциони: С большими языковыми моделями, такими как GPT-4, вы должны различать интеллект и автономию. Интуитивно мы часто совмещаем эти две вещи, потому что люди разумны и автономны. GPT-4 очень сложный и несколько умный, но у него нет собственной воли. Насколько он автономен, это вопрос политический, а не технологический. Это решают люди.
Амитай Этциони: Я вынужден не согласиться… Но, если кто-то… сегодня изобретет новую технологию для более качественных дипфейков, нам придется с этим смириться, даже если это идет вразрез с нашими ценностями и политической волей. Мы даже не могли бы запретить их, даже если бы захотели.
DER SPIEGEL: Почему бы и нет?
Амитай Этциони: Этот корабль уплыл, технологии уже в мире. Даже если бы у нас был договор с Китаем, Россия его придерживалась бы? Венесуэла? Йемен?
DER SPIEGEL: Даже босс OpenAI Сэм Альтман призывает к регулированию своей отрасли.
Амитай Этциони: Это просто пиар.
Орен Этциони: Я тоже не думаю, что это лучший способ. Нам нужно целенаправленное регулирование. Должен ли единый закон об искусственном интеллекте охватывать все, от чат-ботов до контроля над нашим ядерным оружием? Нам лучше адаптировать наши существующие законы об авторском праве, об исследованиях лекарств и в других областях к новой реальности.
DER SPIEGEL: Давайте поговорим об опасностях, которые представляют люди, использующие эти мощные инструменты. Чего вы больше всего боитесь?
Орен Этциони: Следующие президентские выборы. И каждые последующие выборы. Печатный станок Гутенберга сделал копирование информации практически бесплатным, Интернет сделал глобальное распространение бесплатным, и теперь информация становится свободной для производства. Избирателей можно засыпать сообщениями, которые звучат так, будто их произнес Илон Маск или Ангела Меркель. Такие приложения нужно регулировать, а не GPT-4.
Амитай Этциони: ИИ уничтожит правду. Вы больше не можете верить своим глазам и ушам. Это вызов демократии и нашему сообществу.
DER SPIEGEL: Сгенерированные искусственным интеллектом изображения Папы в белом пуховике и программы, клонирующие голоса из нескольких образцов речи, уже циркулируют. Как нам контролировать эту приливную волну поддельного контента?
Орен Этциони: Панацеи не существует, регулирование может быть лишь частью решения. Например, можно потребовать цифровую аутентификацию, своего рода водяной знак, который должен включать весь контент, созданный ИИ. Технология для этого готова. Но проблемы регуляторов остаются: они национальные, а проблема международная. Нам нужны другие средства.
DER SPIEGEL: Как они могут выглядеть?
Орен Этциони: Образование. Мы должны научиться использовать эту технологию. Мошенники, звонящие бабушке и дедушке, сегодня могут звучать для них, как настоящий внук. На днях предполагаемый коллега написал мне сообщение с просьбой об одолжении. Только когда он спросил меня о подарочных картах Apple, я понял, что это не он. При каждом телефонном звонке мы должны спрашивать себя: аутентично ли это?
DER SPIEGEL: ChatGPT не просто лжет, когда об этом говорят. Например, недавно чат-бот обвинил мэра Австралии в коррупционном скандале, который этот человек на самом деле раскрыл сам. Почему программа так искренне производит такую абсолютную чепуху?
Орен Этциони: Самосознание модели трудно откалибровать, потому что у нее нет понятия реальности. Когда ChatGPT решает, обозначать ли небо голубым или серым, он вычисляет вероятности, мало отличающиеся друг от друга. Модель должна со временем научиться говорить: «Я не знаю». И не забывайте: эта технология очень молода. Будут ошибки. Подумайте о ядерных технологиях. Я думаю, все теперь согласны с тем, что Хиросима и Нагасаки были ошибками.
Амитай Этциони: Нам нужно найти способы научить модели этике. Не то, о чем думает философ, а ценности, которыми на самом деле живут различные религиозные или социальные группы.
DER SPIEGEL: Компания Palantir, занимающаяся анализом больших данных, предлагает армиям платформу искусственного интеллекта, которая разрабатывает боевые планы и анализирует вражеские цели. Глава Palantir Алекс Карп называет генеративный ИИ революцией, которая «поднимет и потопит корабли».
Амитай Этциони: Представьте себе: технология искусственного интеллекта в сочетании с ядерным оружием и космическими технологиями, которые могут идентифицировать каждую точку на Земле. Человечество должно найти международное соглашение, в котором говорится: с наступательным оружием такой разрушительной силы искусственный интеллект в одиночку не должен принимать необратимое решение. Здесь за человеком должно быть последнее слово. Но мы уже находимся в косвенной войне с Китаем. Поэтому я не оцениваю шансы на такое соглашение как очень высокие. Это меня беспокоит.
Орен Этциони: Вы должны четко различать оборонительное и наступательное вооружение. Автономные наступательные вооружения угрожают нашей безопасности. Интеллектуальное оборонительное оружие, даже автономное, спасает жизни. Они защищают детские сады и больницы в конфликте между Израилем и палестинцами или на Украине.
( Впрочем, как показала практика сегодняшнего дня, и в Израиле и на Украине, готовы применять, видимо, только наступательный потенциал ИИ – примечание дзен-канала).
DER SPIEGEL: Считаете ли вы искусственный интеллект в первую очередь угрозой для нашего общества?
Амитай Этциони: Вовсе нет. Поддельные эмоции могут быть полезны при создании эмпатических компьютеров. До сих пор мы парковали стариков в домах престарелых и оставляли их там одних, потому что так лучше для них. Лучше, чтобы компьютер сказал: «Я рад тебя слушать», чем никто? Да, я бы предпочел это.
DER SPIEGEL: До сих пор виртуальный компаньон был не более чем фантастикой.
Амитай Этциони: Ничто так не сказывается на нашем психическом здоровье, как одиночество. Почему мы должны помогать людям только тогда, когда они в отчаянии и у них развивается депрессия? По этой причине искусственный интеллект нельзя просто запретить. Мы должны думать как о пользе правил, так и об их вреде.
DER SPIEGEL: Мы благодарим вас обоих за это интервью.
Канал также благодарит своих читателей. ИИ: его возможности, достижения, вопросы правообладания будут подниматься в следующих статьях. Вы можете помочь каналу, поставив лайк и подписавшись.