Apple работает над многочисленными проектами в области машинного обучения и искусственного интеллекта, о которых она может рассказать на WWDC 2024. И в новом опубликованном документе говорится, что некоторые из этих проектов могут помочь Siri понять, как выглядят приложения и сама iOS. Работа, опубликованная в понедельник Корнельским университетом, называется «Ferret-UI: Основы понимания мобильного пользовательского интерфейса с помощью мультимодальных LLM». В ней, по сути, рассказывается о новой мультимодальной большой языковой модели (MLLM), которая способна понимать пользовательские интерфейсы мобильных устройств. Название Ferret первоначально появилось благодаря мультимодальному LLM с открытым исходным кодом, выпущенному в октябре исследователями из Корнельского университета совместно с коллегами из Apple. В то время Ferret мог обнаруживать и понимать различные области изображения для выполнения сложных запросов, таких как определение вида животного по выбранной части фотографии. В
Новая ИИ-модель от Apple может помочь Siri понять, как работают приложения на iOS
9 апреля 20249 апр 2024
4
2 мин
