Головокружительные успехи искусственного интеллекта (ИИ) в последние годы неизбежно сопровождаются ростом тревоги. Этот страх обусловлен не только перспективой массовой потери рабочих мест, но и более глубокой, экзистенциальной угрозой, связанной с неконтролируемым развитием систем, которые могут стать более мощными, чем их создатели. В ответ на этот вызов мировое сообщество, включая ведущих ученых и экспертов, начало активно формулировать этические и методологические рамки для безопасного развития ИИ. Среди таких инициатив особое место занимают Асиломарские принципы набор этических правил, призванных обеспечить, чтобы ИИ служил человечеству, а не становился причиной его гибели.
Я считаю, что необходимость в таких рамках, как Асиломарские принципы, обусловлена осознанием фундаментальной истины: ИИ не является ни добром, ни злом по своей сути. Его потенциал зависит от человеческой изобретательности, стойкости и, самое главное, от нашей мудрости и способности к сочувствию. Однако, поскольку ИИ это мощный инструмент, способный к инструментальной эффективности, но лишенный человеческих ценностей и этического компаса, мы обязаны установить жесткие правила его создания и применения.
Источник тревоги: от небрежности до сверхразума
Основная проблема, которую призваны решить этические рамки, заключается в том, что разработчики ИИ, увлеченные техническим прогрессом, зачастую пренебрегают проблемами безопасности и этики. Как сказал в свое время кибернетик Норберт Винер, если мы используем механического агента, в работу которого не можем эффективно вмешиваться, мы должны быть твердо уверены в том, что цель, заложенная в машину, есть та цель, к которой мы действительно стремимся.
Риски, которые беспокоят экспертов, можно разделить на две категории:
- Проблемы узкоспециализированного ИИ (текущая реальность). Большинство проблем создано людьми по небрежности, недостаточной информированности или злому умыслу. Это включает зашитые в алгоритмы предубеждения (предвзятость), которые воспроизводят социальное неравенство, а также угрозу автономного оружия и дипфейков.
- Экзистенциальный риск (футуристическая угроза). Эта угроза связана с потенциальным появлением сверхразума ИИ, который намного превзойдет человеческий интеллект во всех отношениях. Сверхразум может стать «синглтоном» актором, не имеющим конкуренции и обладающим абсолютной властью. Катастрофа может наступить не из-за «восстания машин», а из-за несовпадения целей: ИИ может быть создан для достижения некой цели (например, максимальной производительности), но в его теории познания (эпистемологии) может содержаться изъян, из-за которого он собьется с пути. Такой ИИ посвятит себя достижению фантастических или опасных целей.
В условиях, когда даже простые процессы эволюционного поиска (как в аппаратном обеспечении) приводят к совершенно неожиданным для человека результатам, которые формально удовлетворяют поставленным критериям, становится очевидным: необходима система контроля, которая бы предотвращала пагубные отказы.
Стратегии контроля: от возможностей к мотивациям
Проблема контроля над сверхразумным агентом не имеет аналогов, поскольку агентский конфликт возникает при появлении искусственного агента, превосходящего по интеллекту человека. Эксперты выделяют два широких класса потенциальных методов решения этой проблемы, которые лежат в основе этических разработок:
- Контроль над возможностями сверхразума (Ограничения возможностей). Этот подход направлен на то, чтобы изначально не допустить у ИИ способности к опасным действиям. Примером такого контроля может быть создание ИИ-оракула, который будет сверхразумен только в одной, узкой области (например, оракул-математик, способный решать сложнейшие задачи, но воспринимающий вопросы только на формальном языке).
- Выбор мотиваций (Загрузка ценностей). Этот класс методов сосредоточен на том, чтобы придать ИИ мотивацию, которая будет совместима с человеческими ценностями и благополучием. Сюда входят:
- Метод точной спецификации: Опирается на четко прописанные правила и принцип консеквенциализма.
- Метод приручения: Разработка системы мотивации, делающей ИИ послушным нашей воле, с ограничением его притязаний.
- Метод косвенной нормативности: Опирается на определение правил или целей косвенным путем, например, через Когерентное Экстраполированное Волеизъявление (КЭВ) концепцию, которая аппроксимирует конечную цель всего, что имеет конечную цель, без прямой связи с этикой.
Необходимость в этических принципах также подкрепляется тем фактом, что мы, люди, склонны к когнитивным искажениям. ИИ-системы будут неизбежно отражать наши собственные социальные, биологические и логические когнитивные предвзятости. Если мы не сможем согласовать наши ценности и цели до создания ИИ, мы рискуем спроектировать мощный, но несогласованный с нашими целями разум.
Выводы и призыв к профессионализму
Этические рамки, подобные Асиломарским принципам, это призыв к профессионализму и коллективному диалогу. Они требуют, чтобы мы перестали играть словами и занялись серьезными исследованиями в области безопасности ИИ.
Нам необходимо сосредоточиться на:
- Создании систем с положительной ценностью. Работать следует только над теми проблемами, которые обладают строго положительной ценностью (помогают получить положительный исход в широком спектре сценариев) и применять инструменты, приемлемые с точки зрения широкого спектра этических норм.
- Обеспечении прозрачности и объяснимости. Особенно в регулируемых областях (таких как юриспруденция или финансы), необходимо иметь доступ к механизмам принятия решений ИИ.
- Глобальном контроле финансирования. Важно не то, будет ли создана та или иная технология, а то, когда она будет создана, кем и в каком контексте. На эти обстоятельства можно влиять, открывая и закрывая финансирование и применяя другие инструменты контроля.
Асиломарские принципы и другие этические инициативы являются нашим «домашним заданием». Они напоминают, что технологическое совершенство не может быть самоцелью; оно должно быть встроено в конкретный социальный контекст, а выгоды и издержки должны оцениваться с учетом конечных целей человеческих агентов. Если мы не сможем наладить режим управления процессом развития интеллекта, человеческую цивилизацию может ждать экзистенциальная катастрофа.