Opera багато інвестує у розробки, пов’язані зі штучним інтелектом – і це дає свої результати. Компанія презентувала чергову свою розробку, пов’язану з ШІ. На даний момент такого не має жоден інший браузер.
Мова йде про можливість доступу до локальних моделей штучного інтелекту.
В рамках експерименту, Opera запускає підтримку для 150 локальних варіантів LLM (Large Language Model) із приблизно 50 сімейств моделей. Таким чином розробник надає користувачам можливість отримувати доступ до локальних LLM і керувати ними безпосередньо зі свого браузера.
Large Language Model (LLM) перекладається як “велика мовна модель”. Це тип програми штучного інтелекту, яка може розпізнавати та генерувати текст. LLM навчаються на величезних наборах даних — звідси й назва «великий».
Як пояснює Opera, локальні моделі штучного інтелекту є безкоштовним доповненням до онлайн-сервісу Opera Aria AI, який також доступний у браузері Opera на iOS та Android. Підтримувані місцеві LLM включають такі імена, як Llama (Meta), Vicuna, Gemma (Google), Mixtral (Mistral AI) та багато інших.
Нова функція дуже важлива для тих, хто хоче зберегти конфіденційність веб-перегляду. Можливість доступу до локальних LLM з Opera означає, що дані користувачів зберігаються локально на їхніх пристроях. Це дозволяє їм використовувати генеративний ШІ без необхідності надсилати інформацію на сервер.
Починаючи з 4 квітня 2024 року, нова функція доступна для користувачів Opera One Developer, але користувачам необхідно оновити до останньої версії Opera Developer і слідувати покроковим інструкціям, щоб активувати її.
Майте на увазі, що після того, як ви виберете певний LLM, він буде завантажений на ваш пристрій. Також важливо додати, що для локального LLM зазвичай потрібно 2–10 ГБ пам’яті. Після завантаження на ваш пристрій, новий LLM використовуватиметься замість Aria, штучного інтелекту браузера Opera.
Підпишись на нас в Google НОВИНИ, та отримуй більше свіжих новин!