В последние годы, обсуждая искусственный интеллект (ИИ), мы всё чаще сталкиваемся с понятием «согласования» (alignment). Обычно под этим термином подразумевается техническая задача: убедиться, что ИИ делает то, что нам нужно, а не что-то неожиданное и потенциально опасное. Но если копнуть глубже, то становится ясно, что сама проблема гораздо шире. И недавняя статья на блоге Mickey Muldoon ярко и точно поднимает этот важный вопрос.
🧩 Что такое согласование ИИ?
Если заглянуть в Википедию, то «AI Alignment» описывается как стремление направить системы искусственного интеллекта к желаемым целям, предпочтениям или этическим принципам определённого человека или группы. На первый взгляд всё ясно. Но автор справедливо замечает: почему мы говорим об «AI Alignment», но почти не говорим о «согласовании фармацевтики», «автомобильного транспорта» или «школьных учебных программ»?
Проблема, по мнению автора, заключается в том, что само понятие «AI Alignment» получило узко технический оттенок. На форумах, посвящённых этой теме, чаще встретишь математические формулы, чем рассуждения философов или социальных мыслителей. И это не случайность.
🌍 Социальное vs Техническое
Автор приводит отличную аналогию с фармацевтикой: никто не станет считать согласование фармацевтической отрасли исключительно научно-технической задачей. Да, в лабораториях разрабатывают лекарства, соблюдая этические нормы, избегая рисков и тестируя безопасность. Но основной механизм согласования происходит вне лаборатории — на уровне общества:
- 🛒 Через выбор потребителей: какие лекарства и компании мы поддерживаем?
- 📜 Через регулирование: какие законы и нормы принимают государства?
- 🗣️ Через обсуждения в СМИ и обществе: какие идеи и подходы мы продвигаем и считаем допустимыми?
Таким образом, согласование не просто техническая проблема, а прежде всего социальная и политическая.
🌱 Эволюция и общественный отбор
Чтобы лучше понять эту идею, автор предлагает аналогию с эволюцией. Динозавры не решили внезапно вырастить крылья — птицы появились благодаря естественному отбору, заполнив новые экологические ниши. Подобный механизм действует и в обществе, только мы можем использовать этические критерии. Автор называет этот процесс «Selection» (Отбор).
Наш выбор, покупки, внимание, общественные и политические действия определяют, какие ИИ-технологии получат широкое распространение. Не существует единого «управляющего органа», который решает, как развивается искусственный интеллект. Это результат суммарной воли общества — той самой «суммы воль масс», о которой писал Толстой.
🔬 Почему техническое решение не является исчерпывающим?
Безусловно, техническая сторона важна. Нужно разрабатывать модели, безопасные и управляемые, решать математические задачи, связанные с поведением нейросетей и алгоритмов. Но автор наглядно показывает (используя забавный мем в оригинальной статье), что эти технические задачи — лишь небольшие «планеты» на фоне огромного социального контекста. Настоящий вопрос — как общество направляет и контролирует влияние ИИ-технологий на повседневную жизнь.
Игнорировать это значит не понимать сути проблемы.
💬 Моё личное мнение
На мой взгляд, автор блестяще сформулировал главный вызов для современного общества в области ИИ. Мы привыкли думать о технологиях как о чисто технических задачах, забывая, что любая технология существует внутри общества, которое обладает собственной инерцией, нормами, ценностями и страхами.
Лично я убеждён, что чем раньше общество начнёт всерьёз обсуждать и участвовать в процессе согласования ИИ на всех уровнях (образование, политика, культура), тем меньше мы столкнёмся с неожиданными и негативными последствиями.
Если общество будет пассивным, технически грамотные, но социально и этически неосведомлённые специалисты примут решения за всех нас — с непредсказуемыми результатами.
🎯 Что делать? Практические советы
Автор предлагает конкретный пример механизма, который помогает обществу эффективнее управлять процессом общественного отбора («Selection»). Это — civic organizing, общественная самоорганизация, позволяющая доносить мнение людей до лиц, принимающих решения, на систематической и регулярной основе.
Однако вариантов много:
- 📢 Широкие общественные обсуждения, участие в форумах, конференциях, медиа-кампаниях.
- 🗳️ Политическое давление и гражданская активность, голосование за политиков и партии, понимающих эти риски.
- 🎓 Образовательные программы, объясняющие обществу возможности и риски ИИ.
- 🌐 Открытость и прозрачность компаний, которые разрабатывают ИИ, с возможностью влиять на их действия через общественное мнение и регуляцию.
✨ Вывод
Проблема согласования ИИ не ограничивается стенами лабораторий. Она охватывает всё общество — наши действия, ценности, обсуждения и выборы. И техническое решение не сможет быть полноценным без социальной и политической составляющей. Игнорировать это значит рисковать, что технологии будут согласованы не с нашими ценностями, а с интересами отдельных корпораций или групп людей.
Настало время обществу включаться в разговор о будущем искусственного интеллекта всерьёз.
🔗 Полезные ссылки: