Logo ETI Quitter la lecture facile

En ce moment

L’usage des petits modèles de langage pourrait rendre l’IA plus accessible et responsable

Posté le par Philippe RICHARD dans Informatique et Numérique

Très connus pour avoir contribué à introduire l’IA générative auprès du grand public, avec ChatGPT, les grands modèles de langage (LLM) pourraient être concurrencés par des modèles plus petits (SLM). Les LLM seraient toujours privilégiés pour des tâches complexes et les seconds pour des usages ciblés.

Trop chers ! Reposant sur des milliards de paramètres et de données, les LLM ont révolutionné la compréhension et le traitement du langage naturel dans l’industrie. Depuis l’avènement de ChatGPT en novembre 2022, l’engouement pour les LLM n’a cessé de croître. Les dépenses mondiales en solutions d’IA de génération pourraient passer de 16 milliards en 2023 à 150 milliards en 2027.

Mais ils présentent aussi des contraintes de coût (à cause notamment d’importantes ressources de calcul), de consommation énergétique et de confidentialité.

L’année 2025 marque un tournant vers des solutions plus compactes et spécialisées. Les Small Language Models (SLM) émergent comme une solution idéale pour des usages ciblés dans les entreprises. Cette montée des SLM s’appuie sur un écosystème open source dynamique, où la communauté partage modèles et scripts pour un entraînement rapide sur des données limitées.

Les petits modèles de langage (SLM) intègrent quelques millions à quelques milliards de paramètres. Plus légers, rapides à entraîner et à déployer, ils représentent une alternative économique aux LLM. Les entreprises y voient un moyen d’optimiser leur ROI (Return on Investment en anglais) ou retour sur investissement.

Ne plus dépendre du cloud

Adaptés à des usages spécialisés, les SLM alimentent des chatbots d’assistance ou des modèles d’analyse de marché. Ils répondent aux besoins de niche sans nécessiter d’énormes jeux de données externes pour l’entraînement. Les entreprises peuvent ainsi affiner ces modèles sur des jeux de données limités pour répondre à des cas d’usage précis sans sacrifier la qualité.

Microsoft, Meta, Google et la start-up française Mistral ont récemment publié des SLM performants et accessibles. Le lancement de PC dotés d’unités de traitement neuronal embarquées facilite l’exécution locale de ces modèles. L’IA ne dépend plus exclusivement des infrastructures coûteuses du cloud.

Autre écueil des LLM : leurs hallucinations, ces réponses inexactes issues de données non structurées. Or, plus un modèle de langage est grand, plus la maîtrise des biais et des fausses réponses devient complexe.

Pour toutes ces raisons, le cabinet d’analystes Gartner estime que les entreprises adopteront trois fois plus de SLM que de LLM généralistes d’ici à 2027. Les experts recommandent de cibler les déploiements spécifiques où les connaissances spécialisées sont déterminantes.

Il pourrait s’agir par exemple d’extraire des informations clés (dates, noms, montants) dans des documents confidentiels ou de recourir à des chatbots formés sur le corpus interne de l’entreprise pour le support RH ou informatique.

Au-delà de ces deux exemples, les SLM peuvent être finement adaptés à tout contexte où l’infrastructure cloud est inadaptée : véhicules autonomes, drones, wearables…

À terme, la stratégie idéale combinera LLM pour les scénarii ouverts et SLM pour les tâches restreintes. Cette approche hybride permettra d’allouer les ressources de calcul de manière optimisée et ciblée. Les entreprises pourront ainsi bénéficier de la puissance des grands modèles tout en limitant les coûts.

Pour aller plus loin

Posté le par Philippe RICHARD


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !