Comme annoncé, Meta a officiellement présenté hier les premières versions de son dernier modèle d'IA, appelé Llama 3. Le géant des médias sociaux a équipé Llama 3 à la fois d'un mécanisme capable de répondre aux questions des utilisateurs et d'un générateur d'images.

Cependant, la deuxième option (générateur d’images) sera disponible un peu plus tard. Le modèle pourra générer des images puis les modifier en temps réel, c'est-à-dire lors de la conversation de l'utilisateur avec l'intelligence artificielle. Grâce à cette solution, l'utilisateur pourra concevoir rapidement des pochettes d'album ou la décoration de l'appartement en cours de rénovation.

Comme prévu, le modèle a été intégré à l'assistant virtuel Meta AI. Cette annonce intervient alors que Meta cherche à proposer ses produits d'IA générative à des milliards d'utilisateurs, dans le but de remettre en question la position de leader d'OpenAI. La version la plus puissante du modèle Llama 3 a été entraînée avec plus de 400 milliards de paramètres. Par conséquent, cela fonctionne beaucoup plus efficacement que la version précédente de la solution (Llama 2), qui interprétait souvent mal les questions, générant des réponses pas tout à fait précises.

Deux versions plus modestes du modèle sont également disponibles, la première entraînée avec 8 milliards de paramètres et la seconde avec 70 milliards de paramètres. L'assistant virtuel Meta AI mentionné au début peut actuellement être utilisé par des utilisateurs vivant dans plusieurs pays, dont les États-Unis, l'Australie, le Canada, Singapour, le Nigeria et le Pakistan. Meta a l'intention de proposer également ce service aux Européens dans un avenir proche.

A lire également