Représentation numérique d'un texte sous forme de vecteur. C'est ce qui permet à l'IA de comprendre la similarité entre des concepts.
AvancéLes embeddings transforment du texte en une série de nombres (un vecteur). Ces nombres capturent le sens du texte, pas juste les mots. Exemple : les embeddings de "chien" et "chat" seront proches numériquement car ce sont des animaux domestiques, même si les mots sont différents. C'est la technologie derrière la recherche sémantique et le RAG. Au lieu de chercher des mots-clés exacts, tu cherches par sens. C'est aussi ce qui permet aux bases vectorielles de retrouver des documents pertinents pour enrichir les réponses d'une IA.
Imagine que chaque concept a une adresse GPS. "Chien" est au (48.85, 2.35) et "chat" est au (48.86, 2.36) : très proches. "Avion" est au (33.94, -118.40) : très loin. Les embeddings sont ces coordonnées GPS du sens des mots.
Un cabinet d'avocats a 10 000 documents juridiques. Avec des embeddings, ils créent une base vectorielle. Quand un client pose une question sur le droit du travail, le système trouve les 5 documents les plus pertinents (par sens, pas par mots-clés) et les fournit à l'IA pour une réponse précise. C'est du RAG en action.
Tu veux maîtriser ces concepts concrètement ?
LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.
Découvrir le programme