AccueilMétiersBlogOutilsGlossaireDécouvrir le programme
Glossaire/IA fondamentale

Distillation

Technique qui transfère les connaissances d'un gros modèle IA vers un modèle plus petit et plus rapide.

Avancé

Définition complète

La distillation de modèle consiste à entraîner un petit modèle (l'élève) à reproduire le comportement d'un gros modèle (le professeur). Le résultat : un modèle plus léger, plus rapide et moins coûteux à exécuter, qui conserve 80-95% des performances du gros modèle. C'est comme ça que des modèles comme GPT-4o mini ou Claude Haiku existent : ils sont distillés à partir des versions complètes. Pour les entrepreneurs, la distillation signifie des outils IA plus rapides et moins chers, idéaux pour les chatbots et automatisations à haut volume.

Analogie pour comprendre

Un grand chef étoilé forme un apprenti. L'apprenti n'a pas 20 ans d'expérience, mais en observant le chef, il apprend les techniques essentielles et peut reproduire 90% des plats. Il est plus rapide et moins cher, parfait pour le service quotidien.

En pratique

Un SaaS de support client utilise Claude Opus pour les cas complexes mais Claude Haiku (distillé) pour les réponses simples. Résultat : 80% des requêtes sont traitées par le petit modèle à 1/10 du coût, les 20% complexes vont au gros modèle. Économie de 70% sur les coûts API.

Termes liés

LLMFine-tuningModèle de fondationLatenceToken

Tu veux maîtriser ces concepts concrètement ?

LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.

Découvrir le programme

Pour aller plus loin

Guide IA 2026 →

Questions fréquentes

Le fine-tuning spécialise un modèle sur un domaine. La distillation compresse un gros modèle en un plus petit. On peut combiner les deux : distiller puis fine-tuner.
Oui, avec des frameworks open-source. Mais en pratique, les modèles distillés des fournisseurs (Haiku, GPT-4o mini) sont suffisants pour la majorité des cas business.