Opera a annoncé cette semaine qu'il introduirait dans son navigateur une fonctionnalité développée par le programme AI Feature Drops qui permettra à ses utilisateurs de télécharger de grands modèles de langage sur leurs ordinateurs, puis de les exécuter localement.

Les utilisateurs du navigateur Opera One pourront d'abord utiliser la nouvelle fonction. La solution est basée sur la plateforme open source Ollama et ses créateurs informent que l'utilisateur aura le choix entre 150 modèles LLM différents, y compris ceux développés par Meta et Google. Tous les modèles disponibles constituent un sous-ensemble de la bibliothèque d'Ollama, mais la société prévoit d'inclure à l'avenir des modèles provenant de diverses sources.

Opera informe que chaque modèle LLM occupera de 2 Go à 10 Go sur le disque de l'ordinateur. Par conséquent, soyez prudent lorsque vous utilisez un plus grand nombre de modèles pour éviter de manquer d’espace disque. La société vous recommande de commencer par charger des modèles tels que Llama (un modèle utilisé pour générer du code d'application), Mixtral (un modèle utilisé pour générer du texte et répondre à des questions, et Phi-2 (le modèle de langage de Microsoft utilisé pour reconnaître le langage naturel).

Pour tester la fonctionnalité, ouvrez d'abord le panneau latéral d'Aria Chat et sélectionnez Choisir le mode local dans le menu déroulant. Ensuite, nous cliquons sur Aller aux paramètres et recherchons le modèle qui nous intéresse. Après avoir chargé le modèle LLM sélectionné sur votre ordinateur, cliquez sur le bouton Menu (visible dans le coin supérieur gauche) et démarrez la conversation.

A lire également