Aller au contenu principal
Accueil Métiers Vidéos Blog Outils Glossaire Voir le programme

Embeddings

Représentation numérique d'un texte sous forme de vecteur. C'est ce qui permet à l'IA de comprendre la similarité entre des concepts.

Avancé

Définition complète

Les embeddings transforment du texte en une série de nombres (un vecteur). Ces nombres capturent le sens du texte, pas juste les mots. Exemple : les embeddings de "chien" et "chat" seront proches numériquement car ce sont des animaux domestiques, même si les mots sont différents. C'est la technologie derrière la recherche sémantique et le RAG. Au lieu de chercher des mots-clés exacts, tu cherches par sens. C'est aussi ce qui permet aux bases vectorielles de retrouver des documents pertinents pour enrichir les réponses d'une IA.

Analogie pour comprendre

Imagine que chaque concept a une adresse GPS. "Chien" est au (48.85, 2.35) et "chat" est au (48.86, 2.36) : très proches. "Avion" est au (33.94, -118.40) : très loin. Les embeddings sont ces coordonnées GPS du sens des mots.

En pratique

Un cabinet d'avocats a 10 000 documents juridiques. Avec des embeddings, ils créent une base vectorielle. Quand un client pose une question sur le droit du travail, le système trouve les 5 documents les plus pertinents (par sens, pas par mots-clés) et les fournit à l'IA pour une réponse précise. C'est du RAG en action.

Outils associés

Supabase

Termes liés

RAGLLMTokenBase de donnéesFine-tuning

Pour aller plus loin

Questions fréquentes

Presque. Un embedding est un vecteur, mais pas tous les vecteurs sont des embeddings. L'embedding est spécifiquement un vecteur qui représente du sens (texte, image, audio).

Oui, via des services comme Supabase (pgvector) ou Pinecone. Claude Code peut configurer tout ça pour toi. Tu n'as pas besoin de comprendre les maths derrière.