Пользователи Opera One получают крупное обновление. Последнее обновление позволяет пользователям загружать и использовать LLM локально. В настоящее время выбор можно сделать между 50 различными моделями, и существует ещё более 150 различных моделей, которые пользователи также могут загрузить и запустить на своих компьютерах.
Некоторые из известных моделей включают Gemma от Google, LLaMA от Meta, Mixtral от Mistral AI и Vicuna от LMSYS. Эта новая функция внедряется в рамках программы AI Feature Drops. То есть пользователи используют версию Opera One для разработчиков, чтобы протестировать обновление.
Несмотря на это, Opera стала первым веб-браузером, который позволил своим пользователям загружать и использовать локальные LLM. Стоит отметить, что локальное выполнение этих моделей часто обеспечивает полный контроль, снижение задержек и, что наиболее важно, лучшую конфиденциальность. Но компьютер должен соответствовать некоторым требованиям.
Например, компания-разработчик веб-браузера заявляет, что каждому варианту локального LLM потребуется более 2 ГБ памяти. Что касается запуска моделей, то Opera заявила об использовании платформы с открытым исходным кодом Ollama. Это также означает, что все доступные на данный момент модели в браузере являются подмножеством библиотеки Ollama. Хорошая новость заключается в том, что Opera планирует включать модели из других источников.
Однако не все пользователи получат пользу от этого обновления. Но это хорошая новость для тех, кто хочет протестировать различные LLM на своих системах. Пользователи могут использовать встроенный AI-помощник под названием Aria, если не хотят загружать модели. Для обычной версии браузера помощник доступен с мая прошлого года.