Fine-tuning
Entraîner un modèle d'IA existant sur tes propres données pour le spécialiser dans un domaine précis.
AvancéDéfinition complète
Le fine-tuning consiste à prendre un modèle d'IA pré-entraîné (comme GPT ou Llama) et à le ré-entraîner sur un jeu de données spécifique pour le spécialiser. Au lieu de partir de zéro (ce qui coûterait des millions), tu réutilises les connaissances générales du modèle et tu lui apprends un domaine précis. Par exemple : entraîner un LLM sur les emails de ton service client pour qu'il réponde exactement dans ton ton et avec tes procédures. Le fine-tuning est plus lourd et plus coûteux que le prompt engineering ou le RAG, mais il produit des résultats plus naturels quand tu as besoin que l'IA maîtrise un domaine très spécifique.
Analogie pour comprendre
Un médecin généraliste a fait 6 ans d'études générales. S'il veut devenir cardiologue, il fait 4 ans de spécialisation en plus. Le fine-tuning, c'est la spécialisation : tu prends une IA généraliste et tu la formes sur ton domaine pour qu'elle devienne experte.
En pratique
Une startup de e-commerce fine-tune un modèle sur 50 000 descriptions de produits de leur catalogue. Résultat : l'IA génère des fiches produit dans le ton exact de la marque, avec les bons mots-clés SEO, sans avoir besoin de prompts complexes à chaque fois.
Termes liés
Pour aller plus loin
Questions fréquentes
Le RAG est plus simple et moins cher : tu donnes des documents à l'IA au moment de la question. Le fine-tuning est plus puissant mais plus complexe : l'IA intègre les connaissances en profondeur. Pour la plupart des cas business, le RAG suffit.
Ça varie énormément. Chez OpenAI, fine-tuner GPT-3.5 coûte quelques dizaines d'euros. Pour un modèle plus gros, ça peut atteindre des milliers d'euros en compute. Les modèles open-source permettent de réduire les coûts.
Anthropic ne propose pas encore de fine-tuning public pour Claude en 2026. L'alternative : utiliser le RAG ou des system prompts très détaillés pour obtenir un comportement similaire.