Snowflake et Mistral AI ont annoncé un partenariat mondial pour rendre les modèles linguistiques les plus puissants de Mistral AI disponibles directement aux clients de Snowflake sur le Data Cloud de l'entreprise.
Snowflake s'engage à stimuler l'innovation en matière d'IA non seulement pour ses clients et l'écosystème Data Cloud, mais également pour la communauté technologique au sens large. L'entreprise a récemment rejoint l'AI Alliance, une communauté internationale de développeurs, de chercheurs et d'organisations dédiée à la promotion d'une intelligence artificielle ouverte, sûre et responsable.
Il passe maintenant aux étapes suivantes. Grâce au partenariat avec Mistral AI, les clients de Snowflake auront accès au modèle le plus récent et le plus puissant de l'entreprise, Mistral Large, qui est l'un des LLM les plus efficaces au monde. Le modèle peut traiter des centaines de pages de documents en une seule connexion. De plus, les clients de Snowflake auront accès à Mixtral 8x7B, le modèle open source Mistral AI qui surpasse le GPT3.5 d'OpenAI en termes de vitesse et de qualité dans la plupart des benchmarks, et à Mistral 7B, le premier modèle de base Mistral AI optimisé pour une faible latence avec une faible mémoire. empreinte et un débit relativement élevé.
Les modèles d'IA Mistral sont désormais disponibles pour les clients en version préliminaire publique dans le cadre de Snowflake Cortex, un service de recherche LLM et vectorielle entièrement géré qui permet aux organisations d'accélérer l'analyse et de créer rapidement des applications d'IA en toute sécurité à l'aide des données d'entreprise.
Avec Snowflake Cortex LLM Functions, une solution actuellement en préversion publique, les utilisateurs de Snowflake peuvent tirer parti de l'IA pour prendre en charge un large éventail de cas d'utilisation. Grâce à des fonctionnalités spécialisées, tout utilisateur possédant des compétences SQL peut exploiter des LLM plus petits pour résoudre de manière rentable des tâches spécifiques en quelques secondes. Pour des cas d'utilisation plus complexes, les développeurs Python peuvent passer du concept à des applications d'IA complètes, telles que les chatbots, en quelques minutes, tout en combinant la puissance des modèles de base, tels que le LLM de Mistral AI dans Snowflake Cortex, avec les éléments de chat de Streamlit dans Snowflake. Cette expérience rationalisée s'étend également à l'utilisation de RAG avec les capacités vectorielles intégrées et les types de données vectorielles de Snowflake, tout en garantissant que les données ne quittent jamais le périmètre de sécurité et de gestion de Snowflake.
