Добавить в корзинуПозвонить
Найти в Дзене

Недостаток открытости в сфере искуственного интеллекта

Согласно последнему исследованию, проведенному учеными из Стэнфордского университета, прозрачность в разработке популярных и влиятельных систем искусственного интеллекта, таких как ChatGPT от OpenAI, оставляет желать лучшего. В марте, когда OpenAI представила информацию о своей новейшей языковой модели GPT-4, на которой основан ChatGPT, описание заняло 100 страниц, но оставило без внимания ключевые аспекты ее создания и функционирования. Это указывает на стремление ведущих технологических компаний держать в тайне механизмы работы своих наиболее ценных алгоритмов, что вызывает опасения относительно безопасности и надежности этих технологий. Анализ Стэнфорда включал оценку 10 ИИ систем, в том числе ведущие модели от Google, Amazon и других крупных компаний, а также продукты стартапов. Исследователи также рассмотрели открытые исходные коды, такие как Stable Diffusion 2 от Meta, выявив общую тенденцию к недостаточной открытости. Стэнфордская группа оценивала модели по нескольким критериям
Изображение создано автором канала с применением нейросети
Изображение создано автором канала с применением нейросети

Согласно последнему исследованию, проведенному учеными из Стэнфордского университета, прозрачность в разработке популярных и влиятельных систем искусственного интеллекта, таких как ChatGPT от OpenAI, оставляет желать лучшего. В марте, когда OpenAI представила информацию о своей новейшей языковой модели GPT-4, на которой основан ChatGPT, описание заняло 100 страниц, но оставило без внимания ключевые аспекты ее создания и функционирования. Это указывает на стремление ведущих технологических компаний держать в тайне механизмы работы своих наиболее ценных алгоритмов, что вызывает опасения относительно безопасности и надежности этих технологий.

Изображение создано автором канала с применением нейросети
Изображение создано автором канала с применением нейросети

Анализ Стэнфорда включал оценку 10 ИИ систем, в том числе ведущие модели от Google, Amazon и других крупных компаний, а также продукты стартапов. Исследователи также рассмотрели открытые исходные коды, такие как Stable Diffusion 2 от Meta, выявив общую тенденцию к недостаточной открытости. Стэнфордская группа оценивала модели по нескольким критериям прозрачности, включая доступность данных обучения и использованного аппаратного и программного обеспечения. Результаты показали, что ни одна из рассмотренных моделей не достигла более 54% открытости.

Отсутствие прозрачности касается не только сферы обучения моделей, но и раскрытия информации о сборе и обработке данных, что поднимает вопросы о воспроизводимости и научном прогрессе. Например, Meta не разглашает, как собирались и аннотировались данные для обучения Llama 2, что делает эту "открытую" модель сравнительно закрытой.

В ответ на этот отчет представители крупных технологических компаний выражают свою заинтересованность в изучении полученных результатов, подчеркивая, что многие из этих моделей все еще находятся на стадии разработки. Тем временем, Институт ИИ Аллена (AI2) стремится к разработке прозрачной языковой модели ИИ, OLMo, обученной на данных из различных источников, и планирует предоставить открытый доступ к ее коду и рабочей системе для стимулирования дальнейших исследований.

Важность расширения доступа к данным и процессам, лежащим в основе разработки ИИ, подчеркивается всеми экспертами. Отсутствие такого доступа затрудняет понимание механизмов работы моделей и влияет на научный прогресс, оставляя сферу ИИ в состоянии закрытости и коммерческой засекреченности. Это ставит под угрозу не только развитие науки, но и безопасность и надежность технологий искусственного интеллекта.

Изображение создано автором канала с применением нейросети
Изображение создано автором канала с применением нейросети

Недостаток открытости в сфере искусственного интеллекта замедляет прогресс в науке и угрожает безопасности и стабильности этих технологий. Увеличение прозрачности может способствовать значительному прогрессу в создании безопасного и работоспособного ИИ.

-4