Если человеческий коллектив работает благодаря архитектуре верификации, задача с ИИ формулируется не как «сделать его понятным», а как встроить его в такую же архитектуру разделённого эпистемического труда. Тогда ИИ перестаёт быть внешним «оракулом» и превращается в ещё одного участника коллективного мышления. ИИ хорошо делает то, что плохо даётся людям: Люди лучше делают то, что плохо даётся ИИ: С точки зрения разделения эпистемического труда ИИ должен стать специалистом по вычислительным и сценарным задачам внутри уже существующего коллектива, а не заменой ему. Его выводы — это не «истина», а ещё один вход в коллективное обсуждение. Чтобы такой участник был надёжным, вокруг него нужно выстроить внешнюю архитектуру проверки, аналогичную той, что уже работает для людей: В такой конфигурации надёжность ИИ уже не сводится к «качеству модели». Она становится свойством всей системы: модель + процедуры проверки + люди, которые принимают и, при необходимости, пересматривают решения. Сфер
5. Как встроить ИИ в архитектуру коллективного знания
17 февраля17 фев
2
3 мин