Согласно последнему исследованию, проведенному учеными из Стэнфордского университета, прозрачность в разработке популярных и влиятельных систем искусственного интеллекта, таких как ChatGPT от OpenAI, оставляет желать лучшего. В марте, когда OpenAI представила информацию о своей новейшей языковой модели GPT-4, на которой основан ChatGPT, описание заняло 100 страниц, но оставило без внимания ключевые аспекты ее создания и функционирования. Это указывает на стремление ведущих технологических компаний держать в тайне механизмы работы своих наиболее ценных алгоритмов, что вызывает опасения относительно безопасности и надежности этих технологий. Анализ Стэнфорда включал оценку 10 ИИ систем, в том числе ведущие модели от Google, Amazon и других крупных компаний, а также продукты стартапов. Исследователи также рассмотрели открытые исходные коды, такие как Stable Diffusion 2 от Meta, выявив общую тенденцию к недостаточной открытости. Стэнфордская группа оценивала модели по нескольким критериям
Недостаток открытости в сфере искуственного интеллекта
5 апреля 20245 апр 2024
12
2 мин