В последнем номере еженедельного приложения к газете «Эль Паис» помещена большая статья журналистки Патрисии Госалвес «Совершенно человеческие вопросы об искусственном интеллекте».
Представляю в своем переводе выдержки из этого интересного текста.
Мы переживаем момент непредсказуемости – так говорят нам крупнейшие специалисты в области искусственного интеллекта. У них нет ответов, а мы, обычные граждане, даже не способны сформулировать соответствующие вопросы. Пытаясь пролить какой-то свет на данную тему, едем в Стокгольм, в Институт исследований будущего.
Опросник проецируется на сенсорное стекло, висящее посредине экспозиции. Вопросы высвечиваются так, что они видны всем: «Вставил ли бы ты себе в мозг чип, чтобы стать умнее?», «Доверил ли бы ты роботу уход за своей пожилой матерью или своим младенцем?», «Должен ли будет этот робот обладать собственными правами?», «Разрешил бы ты, чтобы искусственный интеллект, запрограммированный на беспристрастность, был судьей?», «Перенес бы ты свое сознание в облако, чтобы жить вечно?»… Зритель рукой указывает на «Да» или «Нет», появляющиеся на экране. Это нечто вроде сеанса спиритизма, в котором чувствуешь себя призраком прошлого, отжившим свое существом, которое раздражено и не знает, что делать.
Несмотря на то, что выставка «Hyperhuman» в Технологическом музее Стокгольма заставляет ощутить себя глубоким стариком, она даже не столь уж и нова. Выставка была открыта пару лет назад, намного раньше того момента, когда ChatGPT заполонил первые полосы общетематических СМИ и стал предметом общей озабоченности. Намного раньше того момента, когда Клод Шеннон (1916-2001), отец бита и информационной теории, проронил одну из фраз, которой завершается показ: «Мне виден тот момент, когда для роботов мы будем тем же самым, чем являются для людей собаки. И я ставлю на машины».
По мнению многих экспертов, мы еще не дошли до этого, но, возможно, уже живем на пороге антиутопии. Это момент, когда целый вице-президент Google покидает свой пост, чтобы посвятить себя привлечению внимания к “экзистенциальной проблеме, связанной с искусственным интеллектом”. Как остановить их развитие в капиталистической системе? - задавался вопросом Джеффри Хинтон в интервью газете «Эль Паис». “Я не знаю”, - отвечал он сам себе. Это момент, когда тысяча ведущих исследователей, предпринимателей и интеллектуалов (Илон Маск, Юваль Ноа Харари, Стив Возняк...) подписывают открытое письмо с призывом ввести мораторий, чтобы установить правила действий в отношении “непредсказуемых моделей”, следующих за ChatGpt4.
"Должны ли мы развивать умы, не являющиеся человеческими, которые рано или поздно превзойдут нас числом и интеллектом, сделав нас устарелыми и заменимыми?” - размышляют авторы послания. Макс Тегмарк, преподаватель науки об искусственном интеллекте (ИИ) в Массачусетском технологическом институте и президент Института будущего жизни, который был инициатором письма, признает в своих интервью, что “мы не знаем, как остановить метеорит, который мы создали”.
Когда даже у величайших специалистов в мире нет ответов, непрофессионал, находящийся в счастливом неведении или просто напуганный происходящим, даже не в состоянии сформулировать соответствующие вопросы.
Чтобы найти некоторые из тех, которые мы должны бы были задать себе, мы отправились в другое место Стокгольма, удаленное от научно-фантастического блеска выставки. Ничем не выделяясь среди других зданий, на центральной площади города находится Институт исследований будущего. Эта дисциплина возникла в шестидесятые годы. Она на научной основе разрабатывает вероятные долгосрочные сценарии развития человечества. Густав Аррениус, профессор философии, объясняет, что институт, которым он руководит, "вовсе не является мозговым центром”: “У нас нет идеологии, и мы ничего не продаем”.
“Мы рассматриваем вопросы в тесной междисциплинарной связи и задаемся вопросами, которые не помещаются в рамках стандартного”. Главный из них: "Что мы можем сделать для достижения более желанного будущего и что мы должны сделать, чтобы избежать наихудшего из возможного?”. В различных проектах института участвуют около ста исследователей (социологи, философы, политологи, экономисты, математики...) из пятнадцати стран, а его бюджет составляет восемь миллионов евро (два из них субсидируются правительством Швеции).
Их результаты освещаются в научных публикациях, доводятся до сведения политиков и лиц, принимающих решения (как в Швеции, так и в других странах Европейского союза), и информируются широкой общественности. Это место представляет собой гуманистический центр, некое пространство, в котором можно подумать о будущих поколениях, социальной справедливости или влиянии технологий.
Первый вопрос очевиден: не поздно ли мы ставим под сомнение технологии? "Граждане, общество и, прежде всего, органы управления всегда отстают от прогресса”, - говорит Аррениус, выделяющий два временнЫх фактора, которые не исключают друг друга и из-за которых искусственный интеллект беспокоит «Исследования будущего». С одной стороны, существуют дилеммы, которые “уже здесь”: нарушения конфиденциальности во все более контролируемом обществе, deep fakes (фальшивки), которые невозможно разоблачить, или бюрократическое использование ИИ, например, для назначения пенсий, выдачи разрешений или условно-досрочного освобождения заключенных. С другой стороны, есть проблемы, которые “еще очень далеки”, т.е. вымирание человеческой расы от рук сверхразумных машин. "Лично меня больше, чем то, что машины собираются делать сами по себе, беспокоит то, что люди могут делать с их помощью”, - говорит философ.
Карим Джебари, также философ и исследователь центра, проводит технологическое различие между обеими проблемами: с одной стороны, имеется слабый или специализированный ИИ, с которым мы живем. Именно он рекомендует нам сериалы на Netflix, автоматически выполняет поиск в Google, распознает наше лицо на айфоне, помогает социальным службам решить, снимать ли с нас опеку или беседовать с нами о существовании Бога в ChatGPT. С другой стороны, имеем сильный ИИ, или общий ИИ (IAG), разум, столь же умный, как и человеческий (с преимуществами цифры в обмене репликами или обучении с головокружительной скоростью), который может делать бесконечное количество вещей, в том числе держать в своих руках нашу судьбу. Его еще нет. «Проблемы, которые могут возникнуть, различаются между собой, но стоит исследовать обе», - говорит Джебари, который добавляет что, «к несчастью, иногда их путают».
Огромные дилеммы, которые уже ставит ИИ, даже если не представлять себе мир, в котором роботы голосуют или уничтожают человечество, только начинают решаться регулирующими органами. В начале мая ЕС подписал текст Закона об искусственном интеллекте, который, как ожидается, вступит в силу в 2025 году. То, что в плоскости этики и закона вопрос разбирается после уже состоявшегося внедрения технологий, не обязательно плохо, говорит Джебари: “Важные проблемы возникают тогда, когда есть место для конкретного приложения; имеет смысл продолжить эти обсуждения, как только мы увидим, как используются инструменты”.
«По своей природе управляющие инстанции медлительны, а технологии развиваются все быстрее и быстрее», - добавляет экономист Понтус Стримлинг, отмечая еще один нюанс: «Общие технологии, такие как двигатель внутреннего сгорания, компьютеры или искусственный интеллект, создают множество проблем в краткосрочной перспективе, но в долгосрочной они создают лучшее общество. Риск для того времени, когда эти технологические скачки становятся все короче и короче, заключается в налагании одного проблемного периода на другой». Может быть, отчасти поэтому следует приостановить разработку больших языковых моделей, как того требует письмо, подписанное специалистами в марте?- «Я думаю, что это отличная идея, но не потому, что я беспокоюсь за исчезновение вида, а потому, что это помогло бы нам восстановить чувство контроля", - говорит Стримлинг. По словам специалиста по культурным изменениям и нормам, “широкая общественность, даже политический класс, чувствует, что технологии – это то, что происходит с нами, а не то, что мы заставляем происходить». «Мы забыли, что это создано человеком и что «командуем мы», - говорит он». «По крайней мере, у нас, в демократических странах, мы можем оставить себе то, что нам в ИИ «годится, и отбросить то, что нам не нужно».
Но не является ли движение неостановимым? «В течение последнего года преобладающей линией в разговорах, особенно со стороны самого технологического сообщества, является технологический детерминизм: это произойдет, что бы мы ни делали. Но это попросту неверно, - уточняет Джабари, вспоминая, что на протяжении всей истории человек менял или останавливал развитие множества технологий. В последнее время – напоминает он – это было клонирование человека, ГМО-продукты питания или ядерная энергия. «Когда многие люди думают, что нечто представляет опасность, политики действуют», - резюмирует философ. Должны ли мы тогда сдерживать развитие ИИ? «Очевидно, что, если мы так считаем, мы действуем в русле демократии; если люди просят об ограничениях, ограничения будут введены; даже недемократические государства делают это. Китай также включает тормоз, когда чувствует, что что-то уплывает из его рук».
Частично доводы тех, кто призывает к мораторию, согласованному всеми участниками, заключаются в том, что конкуренция между компаниями способствует не слишком осмотрительному движению вперед. Является ли ключевым моментом проблемы то, что разработка ИИ находится в частных руках? «То, что корпорации лидируют в гонке, вызывает проблемы», - говорит Аррениус, - «поскольку стимулы соблюдать этические соображения могут быть вытеснены жаждой наживы и страхом остаться позади своих конкурентов». Не отрицая этого, Стримлинг, однако, добавляет нюанс, который начинает с одной истории: «Несколько лет назад именно разработчик DeepMind [лаборатория искусственного интеллекта, приобретенная Google в 2014 году] был первым, кто беседовал со мной об этом, будучи обеспокоенным будущим данных моделей. Беседа имела место задолго до того, как отреагировали общественные науки. С тех пор у меня состоялись разговоры с разработчиками, которые считают, что они участвуют в Манхэттенском проекте". То есть Стримлинг не думает, что в отрасли существует «особое нежелание» подвергаться регулированию, поскольку многие специалисты испытывают беспокойство в отношении инноваций, над которыми они работают. Фактически, экономист полагает, что некоторые технологи придерживаются «преувеличенного», более мрачного, чем в среднем, взгляда на будущее. «Возможно, потому, что они видят все возможности и связанные с ними проблемы, но делают это из своего пузыря”, - говорит он. И приводит пример: «Я видел инженеров, обеспокоенных тем, что в 2030 году у всех будет по отдельному автомобилю, и это станет хаосом… Это значит не понимать, насколько часто обычные люди покупают машину».
“Во всем, что связано с ИИ, разрыв между оптимистами и антиутопистами становится все более поляризованным”, - говорит социолог Моа Бурселл. В основе ее последнего проекта лежит один из самых важных вопросов об инструменте: может ли он помочь избежать человеческих ошибок и перекосов, быть более беспристрастным, лучше соответствовать определенным ценностям или наоборот? Специальностью Бурселл является не компьютерное дело, а инклюзивность и разнообразие рынка труда, и «как социолог» она заявляет о своей «нейтральности» в отношении внедрения искусственного интеллекта в процессы отбора персонала, которые она изучает. Теоретически, объясняет она, ИИ может отработать очень хорошо (точный алгоритм освобождает отделы кадров от бумажной волокиты, и они могут потратить время на окончательный отбор) или всё может получиться ужасно плохо (машины «намного более последовательны», чем люди, и когда алгоритм сбивается, ИИ превращается в глупое животное). Социолог заключает: «Создать ИИ без перекосов – это всего лишь первый шаг. В процессе его внедрения необходимо давать разъяснения и осуществлять постоянное наблюдение». В другом кабинете института Людвиг Бекман, профессор политических наук, изучает, как ИИ может влиять на демократию. И в его области имеются «очень спекулятивные» вопросы о будущих сверхразумных машинах. Например, может ли дойти до того, что роботы будут голосовать? Политолог качает головой, но признает: «Не думаю. Однако данный вопрос заставляет вас пересмотреть границы охвата и причины, по которым мы считаем, что определенные люди или другие субъекты не могут голосовать”, например, дети, люди с тяжелыми психическими расстройствами, животные…Тогда могут ли роботы обладать правами? Политолог сомневается: «Возможно, об этом имеется какая-то литература. У ИИ были бы цели, а не интересы, и все же мне трудно узреть скрытый моральный ущерб, связанный с неуважением интересов машины", - говорит Бекман. Могут ли быть установлены, по крайней мере, правила, запрещающие быть жестоким по отношению к машинам, которые кажутся почти человеческими существами? «Это интересная мысль, потому что так начиналось движение за права животных. Ненужная жестокость была запрещена. При этом думали не о животном, а о нашей собственной морали, потому что жестокое обращение делало нас, людей, более грубыми существами».
«Проблема не в том, что машины принимают плохие решения, а в том, что данные системы, которые уже самообучаются, делают это таким образом, что их процедуры не до конца понятны самому программисту», - говорит эксперт. Поэтому, пусть даже машины принимают эффективные общественные решения, должны ли мы им позволять их принимать? «Демократия требует, чтобы решения были объяснены народу. Люди имеют право знать, почему им было отказано в разрешении или предоставлено пособие», - говорит политолог. «Законы исходят от человека, занимающего властное положение, который может объяснить причины, лежащие в их основе». Для объяснения Бекман прибегает к примеру с калькулятором. Вы верите результату, но машина не имеет над вами власти. Бекман решает еще одну дилемму: «Польза от бюрократического ИИ была бы большей в наиболее уязвимых демократических государствах, в тех странах, где коррупция или неэффективность затрудняют принятие многих государственных решений; однако именно в этих странах может быть больше темных интересов в отношении его внедрения».
Социологи сходятся во мнении, что ИИ является революционным явлением, но чисто инструментом, и что, хотя мы его используем, он пока радикально не изменил нашу жизнь. Часть исследований экономиста Стримлинга заключается в прогнозировании того, какие приложения добьются успеха, а какие будут забыты по дороге. Он называет это «предварительной этикой»: «Если мы будем знать, какие приложения будут распространяться с наибольшей скоростью, мы будем знать, на какие этические вопросы нам нужно ответить наиболее срочно». Его вывод заключается в том, что для успеха не так важно удобство использования или свойства приложения, как то, как оно «распространяется». И самый эффективный способ - это «вливание»: когда инновация внедряется в инструмент, которым уже пользуются все. «Однажды Netflix, Google или YouTube внедряют искусственный интеллект или глубокое обучение в свои рекомендательные системы, и оно мгновенно проникает в компьютеры по всей планете, и пользователи даже не слишком подозревают об этом», - говорит он. Недавний пример: «Выходит ChatGpt, его начинают использовать самые заядлые технофилы, широкая публика может некоторое время возиться с приложением, но скачок происходит, когда Microsoft приобретает его и внедряет в свои поисковые системы». «Где свобода выбора пользователя?»- задается вопросом Стримлинг. – «и, кроме того, где представление культурного разнообразия, когда очень небольшая группа людей из очень специфической среды — в основном разработчики из Силиконовой долины - принимает решения, не советуясь с нами о том, чем мы все будем пользоваться ежедневно в ближайшем будущем?».
·Философ Джебари настаивает на том, что «это не только технологический, но и политический вопрос», особенно в свете одного из самых беспокоящих вопросов: как это повлияет на работу? Будет ли это использовано для того, чтобы избавить нас от самого утомительного и улучшить качество нашей жизни, или это поможет еще больше эксплуатировать нас? Опять же, это зависит от обстоятельств. «Во многих компаниях, повышая производительность, этот инструмент уже помогает снимать нагрузку и лучше согласовывать работу; в других происходит обратное: это не технологический вызов, а управленческий, профсоюзный, политический», - заключает философ, ссылаясь на анализ, который он провел с партнером. из самых роботизированных складов Amazon. Они были более производительными, но у них также было больше несчастных случаев, больше стресса и неудовлетворенности работой, поскольку работникам приходилось приспосабливаться к бешеному ритму работы машин.
ДО НАСТУПЛЕНИЯ 2030 ГОДА ОСТАЕТСЯ 2407 ДНЕЙ (ПОЧЕМУ Я ВЕДУ ЭТОТ ОТСЧЕТ, СМ. В "ЧЕГО НАМ НЕ ХВАТАЛО ДЛЯ РЫВКА")