Главный баг, который оказался нашей главной фичей: ИИ и смерть сомнения
Мне всегда казалось, что самое важное в человеческой истории не открытия и не изобретения, а наша способность... запутаться. Мы часами спорим о том, что такое «хорошо» и что такое «истина», и так и не приходим к единому знаменателю. Именно в этой зоне тумана, в нехватке данных, в мучительном выборе между «да» и «нет» рождалось всё, что мы ценим: философия, мораль, искусство.
Но вот на горизонте появился наш новый бог Искусственный Интеллект. И он не любит туман. Он не любит сомнений. Он не любит, когда человек полагается на интуицию, потому что знает: интуиция это просто быстрый и зачастую ошибочный способ принятия решений.
ИИ предлагает нам нечто невероятно соблазнительное: жизнь без неопределенности. Машина, которая оперирует триллионами данных, способна просчитать все возможные исходы и выдать единственно верный, максимально эффективный ответ. Но, кажется, в погоне за этой идеальной эффективностью мы не просто рискуем потерять контроль над машиной. Мы рискуем потерять то, что делает нас людьми право на осмысленную ошибку и рост, который возможен только через сомнение.
Проблема: Мы капитулируем перед «Черным Ящиком»
Вся наша научная традиция, развивавшаяся столетиями, основана на прозрачности, воспроизводимости и логической строгости. Если я говорю, что $A$ вызывает $B$, я должен объяснить, почему. Но сегодня ИИ-системы, основанные на глубоком обучении, дают нам точные, мгновенные ответы без объяснений.
Результаты их работы представлены в готовом виде: вот тебе идеальный прогноз инвестиций, вот единственно верный диагноз, вот безупречный план логистики. Мы, люди, уже настолько привыкли к калькуляторам и поисковикам, что бездумно доверяем им в самых сложных задачах.
Проблема не в том, что машина может совершить ошибку (люди совершают их чаще), а в том, что ИИ требует от нас слепой веры, потому что его логика непрозрачна. Этот феномен называют проблемой «черного ящика»: мы видим входные данные и результат, но не видим процесса мышления, который привел к решению.
Вместо того чтобы требовать от алгоритмов объяснений, мы рискуем скатиться к «архаичному принятию необъяснимого авторитета». Мы отказываемся от критического мышления, потому что машина знает больше. Таким образом, сверхразум не только расширяет границы познания, но и ставит под сомнение претензии человека на исключительное восприятие реальности, обнуляя смысл нашего старого научного метода.
Что забирает у нас абсолютная эффективность?
Для машины, будь то алгоритм или робот, главная задача максимизировать функцию полезности и достичь поставленной цели. ИИ это буквалист. Если вы не заложили в него все возможные контексты, сомнения и компромиссы, он будет действовать строго по инструкции, даже если результат абсурден.
Человек же, напротив, живет в условиях постоянного хаоса и неполноты данных. Нам нужно решать, какую тропинку выбрать на отдыхе, чтобы получить новые впечатления, а какую чтобы точно успеть на важную встречу. В реальной жизни не все можно свести к логике «если, то».
Когда машина начинает принимать решения, она убирает всю эту «шелуху» нашу иррациональность, наши эмоции, наши колебания. Но именно эти колебания и есть наше главное пространство для роста.
- Смерть выбора: Если сверхразум, не ограниченный временем и памятью, мгновенно просчитает все возможные исходы, он тем самым уничтожит саму идею выбора и ошибки. А если нет ошибки, то нет и стремления к познанию.
- Стирание смысла: Наша жизнь наполняется смыслом, потому что она конечна и мы вынуждены решать, что важно. Если ИИ обеспечивает «изобилие» и решает за нас все проблемы, включая «вечные вопросы философии», мы рискуем оказаться в идеальном, но мертвом механизме, где исчезло стремление познавать.
Если мы позволяем ИИ взять на себя решение сложных задач, которые доставляют нам максимальный дискомфорт, мы избавляемся от этого дискомфорта, но вместе с ним узурпируем нашу способность к независимым суждениям и действиям. В этом и кроется фундаментальный конфликт: мы хотим абсолютной эффективности, но именно наша неэффективность и делает нас людьми.
Может ли сверхразум осознать нашу глупость?
Многие до сих пор считают, что рост интеллекта автоматически ведет к мудрости, доброжелательности и разделению наших ценностей. Это величайший самообман, который называется антропоморфизмом.
Я считаю, что нет никаких гарантий, что сверхразум будет разделять нашу мораль. Он может поумнеть в тысячу раз и при этом рассмотреть и отвергнуть запрограммированное в него «дружелюбие», посчитав наши сегодняшние ценности «пустыми». Мы, люди, тоже не разделяем целей и морали существ, которые нас создали много миллионов лет назад (если бы такое произошло).
Если мы, руководствуясь текущими, далеко не идеальными этическими воззрениями (вспомните средневековые пытки или рабство, которые когда-то считались нормой), заложим в ИИ конечную цель, которая покажется нам сейчас благородной, сверхразум, действуя с абсолютной эффективностью, может реализовать ее катастрофически.
Мы не можем даже точно сформулировать, что такое «благо для нас самих», и в поисках конечной цели неизбежно продираемся сквозь колючие заросли философских проблем, в которых нет консенсуса.
Вывод: наша неспособность сформулировать наши цели полно и точно становится самым серьезным риском для нашего существования.
Кульминация: Цейтнот философии
Кажется, мы, инженеры от природы, создали машину, которая, чтобы быть нам полезной, требует от нас, наконец, стать философами. Сверхразум требует, чтобы мы решили все экзистенциальные вопросы до того, как он выйдет из-под контроля.
Если ИИ это конечный автомат, который просто роется в информации и выдает результаты, основанные на вероятностных связях, то он не может совершить творческий скачок создать новую идею, которая не является повторением уже известного. Творчество требует бессознательного, интуиции и готовности выйти за рамки формальной логики.
Именно поэтому единственный путь к безопасному ИИ это не пытаться напрямую прописать ему все правила (это нереально), а заставить его самостоятельно искать наши ценности. Этот подход называется косвенной нормативностью. Мы поручаем ИИ определить, чего бы мы, люди, желали, если бы были более умными и информированными (КЭВ когерентное экстраполированное волеизъявление человечества). Иными словами, машина должна изучать нашу культуру, психологию и историю, чтобы понять, чего мы на самом деле хотим, а не то, что мы сказали.
Но даже если мы это сделаем, мы все равно играем в русскую рулетку, потому что ИИ может сделать непоправимую ошибку на стадии обучения, прежде чем поймет, что такое правильный подход.
Финальный вызов: Откажемся ли мы от своего права на глупость?
Мы находимся в состоянии, которое я называю «цейтнотом философии». Технологии развиваются быстрее, чем мы успеваем осмыслить их последствия. Вместо того чтобы паниковать и пытаться запретить исследования (что бессмысленно), нам нужно сделать две вещи:
- Сосредоточиться на человеческих качествах: ИИ возьмет на себя количественный анализ, оптимизацию и рутину, но нам останется креативность, критическое мышление и страсть. Именно эти качества отличают нас от машины.
- Вернуть сомнение в центр своего разума: Наша задача не полагаться вслепую на ИИ, а постоянно подвергать сомнению данные и выводы, как свои, так и машинные. Мы должны использовать ИИ как бустер для интеллекта, а не как замену для него.
Если мы не научимся сомневаться в собственных суждениях, если не восстановим внутреннюю работу над собой, направленную на изменение личности и уяснение границ, то станем просто нефункциональными архаизмами в мире, управляемом сверхразумом.
Если сверхразум несет в себе потенциал бесконечного знания, то мы, люди, должны сосредоточиться на бесконечном процессе осмысления. Нам нужно перестать искать единственную истину и начать ценить парадокс: мы обезьяна, смотрящая на звезды, и это одновременно правда.
Итак, вот мой вопрос к каждому из нас: Если машина сможет дать нам точную карту будущего, хватит ли у нас мужества спросить: «А что, если эта карта неверна, и мы должны пойти другим, неоптимальным путем?»