Accueil Métiers Blog Outils Glossaire Découvrir le programme
Glossaire / Data & infrastructure

Embeddings

Représentation numérique d'un texte sous forme de vecteur. C'est ce qui permet à l'IA de comprendre la similarité entre des concepts.

Avancé

Définition complète

Les embeddings transforment du texte en une série de nombres (un vecteur). Ces nombres capturent le sens du texte, pas juste les mots. Exemple : les embeddings de "chien" et "chat" seront proches numériquement car ce sont des animaux domestiques, même si les mots sont différents. C'est la technologie derrière la recherche sémantique et le RAG. Au lieu de chercher des mots-clés exacts, tu cherches par sens. C'est aussi ce qui permet aux bases vectorielles de retrouver des documents pertinents pour enrichir les réponses d'une IA.

Analogie pour comprendre

Imagine que chaque concept a une adresse GPS. "Chien" est au (48.85, 2.35) et "chat" est au (48.86, 2.36) : très proches. "Avion" est au (33.94, -118.40) : très loin. Les embeddings sont ces coordonnées GPS du sens des mots.

En pratique

Un cabinet d'avocats a 10 000 documents juridiques. Avec des embeddings, ils créent une base vectorielle. Quand un client pose une question sur le droit du travail, le système trouve les 5 documents les plus pertinents (par sens, pas par mots-clés) et les fournit à l'IA pour une réponse précise. C'est du RAG en action.

Outils associés

Supabase

Termes liés

RAG LLM Token Base de données Fine-tuning

Tu veux maîtriser ces concepts concrètement ?

LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.

Découvrir le programme

Pour aller plus loin

Guide IA 2026 →

Questions fréquentes

Presque. Un embedding est un vecteur, mais pas tous les vecteurs sont des embeddings. L'embedding est spécifiquement un vecteur qui représente du sens (texte, image, audio).
Oui, via des services comme Supabase (pgvector) ou Pinecone. Claude Code peut configurer tout ça pour toi. Tu n'as pas besoin de comprendre les maths derrière.