«Википедия» объявила о новой трёхлетней стратегии в области искусственного интеллекта, которая направлена на расширение возможностей редакторов-волонтёров, а не на их замену. Планируется использовать искусственный интеллект для автоматизации повторяющихся задач, улучшения переводов и устранения технических препятствий, чтобы редакторы могли сосредоточиться на более значимом вкладе.
Подход искусственного интеллекта, ориентированный на человека
Стратегия Фонда Викимедиа в области искусственного интеллекта явно отвергает идею замены людей, вносящих вклад, искусственным интеллектом, подчеркивая вместо этого, что человеческий элемент незаменим в экосистеме знаний Википедии. Этот подход отличается от многих реализаций искусственного интеллекта, которые отдают приоритет автоматизации, а не человеческому суждению. По словам Криса Албона, директора по машинному обучению Фонда Викимедиа, инструменты искусственного интеллекта улучшат процесс редактирования, при этом редакторы останутся в центре принятия всех решений.
В основе этого подхода, ориентированного на человека, лежат три основных принципа: устойчивость, справедливость и прозрачность.4 Вместо использования искусственного интеллекта для создания контента, что чревато распространением дезинформации, стратегия Википедии фокусируется на использовании технологий для решения простых повторяющихся задач при сохранении важнейших человеческих функций проверки, достижения консенсуса и редакторского суждения. Эта стратегия отражает давнюю веру Википедии в то, что "знания присущи человеку" и что технологии должны служить людям, а не заменять их.
Поддержка редакторов-волонтеров
Новые инструменты на основе ИИ будут сосредоточены на конкретных областях, где они могут принести наибольшую пользу сообществу волонтёров Википедии. Автоматизируя утомительные задачи, такие как форматирование статей, выявление ошибок и предложение улучшений, ИИ позволит редакторам сосредоточиться на более вдумчивой работе, такой как проверка фактов и достижение консенсуса. Такая автоматизация повторяющихся задач призвана сэкономить время и усилия глобального сообщества редакторов, не умаляя их важной роли в этом процессе.
Кроме того, стратегия включает в себя использование ИИ для улучшения процесса адаптации новых волонтёров и расширения возможностей перевода на многоязычной платформе Википедии. Эти инструменты разрабатываются с чёткими границами: ИИ будет решать технические задачи, в то время как редакторы-люди будут контролировать контент, просматривая и утверждая все материалы, созданные с помощью ИИ. Такой подход признаёт, что, хотя инструменты ИИ, такие как ChatGPT, набирают популярность, они могут допускать ошибки или генерировать вводящий в заблуждение контент, что подтверждает приверженность Википедии проверке контента людьми как краеугольному камню надёжных знаний.
Принципы искусственного интеллекта с открытым исходным кодом
Стратегия делает акцент на использовании моделей ИИ с открытым исходным кодом или облегченных моделей ИИ, отдавая приоритет прозрачности и контролю со стороны сообщества перед проприетарными решениями. Это обязательство соответствует основополагающим ценностям Википедии, таким как открытость и доступность, и гарантирует, что технология, поддерживающая платформу, остается такой же прозрачной, как и сам контент. Вместо того чтобы полагаться на системы ИИ «черного ящика», Фонд Викимедиа фокусируется на решениях, которые можно изучить, понять и потенциально изменить с помощью сообщества, которому они служат.
- Модели будут отбираться на основе их соответствия принципам конфиденциальности, прав человека и прозрачности
- Решения с открытым исходным кодом обеспечивают больший контроль и участие сообщества
- Такой подход снижает зависимость от проприетарных технологий, которые могут не соответствовать ценностям Википедии
- Фонд признаёт, что прозрачность в системах искусственного интеллекта необходима для поддержания доверия как со стороны разработчиков, так и со стороны пользователей
Фокус на Модерации контента
На начальном этапе внедрения ИИ основное внимание будет уделяться модерации контента и целостности знаний, а не созданию контента. Такой целенаправленный подход позволяет не перегружать редакторов-людей материалами, созданными ИИ, которые требуют тщательной проверки и редактирования. Сосредоточившись на наиболее важных для волонтёров областях, Фонд признаёт ограниченность своих ресурсов и стремится максимизировать пользу там, где она наиболее важна.
Эта стратегия представляет собой продуманный ответ на вызовы, которые бросают инструменты генеративного искусственного интеллекта, вызывающие опасения по поводу дезинформации. В то время как многие организации спешат внедрить ИИ в широких масштабах, взвешенный подход Википедии отражает её стремление к надёжности в эпоху, когда, по словам Фонда, «интернет-пользователи будут придавать всё большее значение надёжным источникам информации, проверенным людьми». Эта философия позиционирует Википедию как противовес потенциальным проблемам с качеством информации, вызванным искусственным интеллектом.