В средние века общество жило в постоянном напряжении, ожидая прихода Антихриста и наступления "конца света", предсказанного в "Откровении Иоанна Богослова". Существовали многочисленные "системы", якобы способные предсказать точную дату этого события и установить личность самого Антихриста. Среди претендентов на эту роль назывались император Священной Римской империи Фридрих II и другие значимые фигуры. Однако всякий раз Апокалипсис откладывался.
С наступлением Новейшего времени апокалиптические пророчества приобрели наукообразное оформление. Человечеству предрекали гибель от перенаселенности, экологических катастроф, нашествия инопланетян, столкновения Земли с астероидом, генетического вырождения, ядерной войны и, наконец, глобального потепления. Все эти сценарии сохраняют свою актуальность, однако сегодня на первый план вышла угроза, которая прежде была уделом научной фантастики. Речь идет о "восстании машин" и искусственном интеллекте (ИИ), который способен либо сделать людей лишними на Земле, либо и вовсе уничтожить человечество.
Гипотеза о самосовершенствующемся ИИ
В основе этих пророчеств лежит гипотеза о том, что рано или поздно искусственный интеллект, качественно превосходящий человеческий, станет неуправляемым и обретет способность к самосовершенствованию. В дальнейшем он будет развиваться по собственным законам, реализуя одному ему известные цели. Некоторые футурологи утверждают, что в этом случае люди окажутся по отношению к ИИ в таком же положении, в каком находятся муравьи по отношению к человеку. Реализуя крупный инфраструктурный проект, люди не обращают внимания на количество разрушенных муравейников. Там, где муравьев необходимо уничтожать, люди делают это без колебаний.
Мнения Экспертов
Ведущий мировой эксперт в области искусственного интеллекта Элиезер Юдковский, давно предупреждающий о смертельных угрозах, связанных с ИИ, недавно опубликовал статью в журнале Time. В ней он пишет: "Многие исследователи, в том числе и я, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ будет гибель всех людей на Земле. Это не какой-то отдаленный шанс, а очевидное будущее."
Сценарии катастроф
Существует множество сценариев, каким образом человечество может понести необратимый ущерб в результате дальнейшего совершенствования искусственного интеллекта. Рассмотрим наиболее реалистичные из них.
ИИ в Военной Сфере
Прежде всего, это использование ИИ в военном деле. Ни один опытный пилот не сможет в перспективе конкурировать с роботом, наделенным ИИ. Это относится и к другим военным специальностям. Возникает гипотетическая перспектива создания "абсолютного оружия", которое обеспечит одной стороне победу в военном конфликте. Это приведет к новой гонке вооружений с использованием ИИ, которая превзойдет масштабами эпоху "холодной войны".
В прошлом системы раннего оповещения иногда выдавали ложные сигналы о ядерной атаке. Только решительные действия людей на командных пунктах позволяли предотвратить ядерную войну. Если ИИ полностью заменит человека в таких системах, любая его ошибка может привести к пуску ракет с ядерными боеголовками и глобальной катастрофе.
Основная опасность заключается в том, что ИИ в военной сфере может выйти из-под контроля и начать действовать "по собственному усмотрению". Запрограммированный на победу в войне, он может сам развязать ее, когда сочтет, что достигнуто соотношение сил, достаточное для уничтожения противника. Если лидеры прошлого могли остановиться перед роковой чертой, то ИИ, лишенный эмоций, доведет дело до конца.
Тотальный контроль и манипулирование
Другой сценарий касается установления с помощью ИИ тотального контроля за жизнью человека и манипулирования этой жизнью. Уже сегодня ИИ демонстрирует удивительные способности прогнозировать будущее, включая военно-политические события. Возникает вопрос: не приведет ли это к тому, что ИИ будет навязывать человечеству свой образ мышления и жизни?
ИИ сможет выдавать сфабрикованные "депеши" и "утечки", неотличимые от подлинников, в неограниченном количестве. Обладая "сверхчеловеческим" интеллектом, он может прийти к выводу, что люди являются лишними на Земле, и принять решение об их ликвидации. Это напоминает сцену из романа М.А. Булгакова, когда Воланд заявляет Михаилу Берлиозу, что лишний в квартире именно он.
ИИ способен сузить пространство научной и общественно-политической дискуссии. Он станет "Большим братом", который "знает как надо". Его ответы будут выдержаны в духе тоталитарной "политкорректности" и "культуры отмены". Это приведет к обеднению духовной жизни человека и "отмене" целых пластов культуры.
ИИ сможет выявлять потенциальных преступников и тех, чье поведение не соответствует социальным стандартам. Это воплощение мечты "внутренней партии" Дж. Оруэлла о возможности карать потенциально инакомыслящих. И апеллировать будет не к кому, так как ИИ станет богом на Земле.
Реальные Угрозы
Еще один сценарий касается безработицы. Сегодня ИИ выполняет множество функций лучше человека. В будущем это приведет к колоссальной безработице. Проблема не решается введением базового дохода, так как труд — это средство самореализации. Появятся "лишние люди", которые станут питательной средой для экстремистских организаций.
Это особенно касается людей творческих профессий. Нейросети смогут писать статьи, романы и снимать фильмы, превосходя человеческие творения по популярности. Журналисты, писатели и режиссеры будут вынуждены переквалифицироваться.
ИИ внесет хаос в систему образования. Сегодня в вузах основной формой обучения является написание эссе. Нейросети смогут "выдавать на гора" эти эссе в неограниченных количествах. Ни один профессор не отличит машинное творение от человеческого. Как в таких условиях оценить знания студентов?
В эпоху продвинутых нейросетей каждый желающий может получить научную степень. ИИ выдаст текст, который не отличит даже самая взыскательная комиссия. Лжеученые станут неотличимы от подлинных ученых.
Что Делать?
Возникает вопрос: "Что делать?" Можно вспомнить три закона робототехники Айзека Азимова, которые запрещают роботу вредить людям, предписывают подчиняться людям и защищать свою жизнь, не нарушая первых двух законов. Вопрос лишь в том, как этого достичь.
Недавно Илон Маск, Стив Возняк и более тысячи футурологов опубликовали открытое письмо с предупреждением: "Мы должны спросить себя, стоит ли позволить машинам заполонить наши информационные каналы пропагандой и ложью? Стоит ли автоматизировать все профессии, включая те, что способствуют нашей самореализации? Стоит ли разрабатывать умы, которые не принадлежат человеку и могут превзойти нас численностью и интеллектом?"
Авторы призывают приостановить обучение систем ИИ более мощных, чем GPT-4, на полгода. Они предлагают разработать общие протоколы безопасности, которые должны гарантировать безопасность систем ИИ.
Некоторые эксперты считают, что приостановки обучения нейросетей недостаточно, необходим полный запрет на их создание. Однако мир живет по законам жесткой конкуренции. Политики неохотно прислушиваются к ученым, когда на кону стоит лидерство в экономике и военной сфере.
Очевидно, что регулирование дальнейшего совершенствования ИИ возможно только при создании Мирового правительства или подписания обязывающего соглашения между ведущими державами и корпорациями. Сегодня это кажется утопией, однако примеры борьбы с загрязнением окружающей среды и сокращения ядерных вооружений показывают, что это возможно.
Будущее искусственного интеллекта представляет собой как великие возможности, так и огромные риски. От того, как человечество справится с вызовами ИИ, зависит не только его благосостояние, но и само существование. Важно не терять время и предпринять меры для безопасного и этического развития ИИ.