C'est au tour de SLM

Les petits modèles de langage (SLM) suscitent un intérêt croissant. Le terme « petit » dans le cas d'un modèle SLM fait référence à la taille du réseau neuronal du modèle, au nombre de paramètres et au volume de données sur lequel il a été entraîné. Gartner définit le SLM comme des modèles de langage comportant 10 milliards de paramètres ou moins. Les petits modèles sont 100 à 1 000 fois plus petits que les grands.

Les petits modèles de langage incluent, entre autres : Google Gemini Nano, Microsoft Orca-2-7b et Orca-2-13b et Meta Llama-2-13b.

Les SLM offrent une plus grande rentabilité et une plus grande précision grâce à la formation sur des données spécifiques à l'industrie. Des modèles plus petits et plus spécialisés pour les tâches actuelles peuvent être développés plus rapidement et ne nécessitent pas autant de ressources qu'il en faudrait pour construire ou former de grands modèles. Les exigences réduites en matière de puissance de calcul facilitent le déploiement sur site ou dans un cloud privé, améliorant ainsi davantage la sécurité et la confidentialité.

Une enquête Harris Poll menée auprès de plus de 500 utilisateurs, commandée par la start-up Hyperscience, a montré que 75 pour cent Les décideurs informatiques estiment que les SLM sont supérieurs aux LLM en termes de rapidité, de coût, de précision et de retour sur investissement.

« Les données sont l'élément vital de toute initiative d'IA, et le succès de ces projets dépend de la qualité des données qui alimentent les modèles », a déclaré Andrew Joiner, PDG d'Hyperscience.

Malheureusement, trois décideurs sur cinq admettent qu’un manque de compréhension de leurs propres données limite leur capacité à exploiter pleinement le potentiel de genAI. Le véritable potentiel réside dans l’adoption de SLM personnalisés capables de transformer le traitement des documents et d’améliorer l’efficacité opérationnelle.

– a-t-il ajouté.

A lire également