Navigateurs : les LLM locaux expérimentés sur Opera One

L’éditeur d’Opera One expérimente l’exécution de LLM locaux en remplacement de l’IA Aria intégrée au navigateur.

Le navigateur web, interface idéale pour exécuter des LLM locaux ? On peut désormais expérimenter une telle fonctionnalité sur le canal dev d’Opera One.

Pour le moment, les modèles téléchargés (150 variantes disponibles, d’une cinquantaine de familles) remplacent l’IA « native » Aria dans le panneau latéral de discussion. Un menu déroulant permet d’en sélectionner un.

Opera LLM locaux

L’éditeur – à capitaux chinois – d’Opera One promet que les données traitées restent en local. Il met en avant trois modèles en particulier : Phi-2 de Microsoft, Mixtral de Mistral AI… et toutes les variantes de Code Llama (7, 13 et 34 millions de paramètres, en versions Code, Instruct, Python).

Une réflexion est en cours pour combiner – toujours en local – ces LLM et l’historique de navigation. Du côté de la communauté, on imagine déjà des connexions avec les extensions Opera ou la possibilité de spécifier ses propres endpoints.

À consulter en complément :

Quel LLM pour coder en cobol ? Un benchmark spécifique émerge
Comment le Crédit Mutuel a internalisé ses IA génératives
Yann Le Cun : « Le futur de l’IA n’est pas dans les LLM, mais dans l’IA guidée par les objectifs »
Des serveurs IA cyberattaqués : la framework Ray comme vecteur
Databricks, un vitrine de plus pour Mistral AI
Grok est-il vraiment un LLM « ouvert » ?

Photo d’illustration © Jamie – Adobe Stock