Accueil Métiers Blog Outils Glossaire Découvrir le programme
Glossaire / IA fondamentale

Fine-tuning

Entraîner un modèle d'IA existant sur tes propres données pour le spécialiser dans un domaine précis.

Avancé
Modèle général GPT, Llama, Mistral + Tes données emails, docs, FAQ Modèle spécialisé expert dans ton domaine

Définition complète

Le fine-tuning consiste à prendre un modèle d'IA pré-entraîné (comme GPT ou Llama) et à le ré-entraîner sur un jeu de données spécifique pour le spécialiser. Au lieu de partir de zéro (ce qui coûterait des millions), tu réutilises les connaissances générales du modèle et tu lui apprends un domaine précis. Par exemple : entraîner un LLM sur les emails de ton service client pour qu'il réponde exactement dans ton ton et avec tes procédures. Le fine-tuning est plus lourd et plus coûteux que le prompt engineering ou le RAG, mais il produit des résultats plus naturels quand tu as besoin que l'IA maîtrise un domaine très spécifique.

Analogie pour comprendre

Un médecin généraliste a fait 6 ans d'études générales. S'il veut devenir cardiologue, il fait 4 ans de spécialisation en plus. Le fine-tuning, c'est la spécialisation : tu prends une IA généraliste et tu la formes sur ton domaine pour qu'elle devienne experte.

En pratique

Une startup de e-commerce fine-tune un modèle sur 50 000 descriptions de produits de leur catalogue. Résultat : l'IA génère des fiches produit dans le ton exact de la marque, avec les bons mots-clés SEO, sans avoir besoin de prompts complexes à chaque fois.

Termes liés

LLM Machine Learning RAG Token Embeddings

Tu veux maîtriser ces concepts concrètement ?

LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.

Découvrir le programme

Pour aller plus loin

Guide IA 2026 →

Questions fréquentes

Le RAG est plus simple et moins cher : tu donnes des documents à l'IA au moment de la question. Le fine-tuning est plus puissant mais plus complexe : l'IA intègre les connaissances en profondeur. Pour la plupart des cas business, le RAG suffit.
Ça varie énormément. Chez OpenAI, fine-tuner GPT-3.5 coûte quelques dizaines d'euros. Pour un modèle plus gros, ça peut atteindre des milliers d'euros en compute. Les modèles open-source permettent de réduire les coûts.
Anthropic ne propose pas encore de fine-tuning public pour Claude en 2026. L'alternative : utiliser le RAG ou des system prompts très détaillés pour obtenir un comportement similaire.