La quantité maximale de texte qu'une IA peut traiter en une seule conversation. Plus elle est grande, plus l'IA peut gérer de contenu.
IntermédiaireLa fenêtre de contexte (ou context window) est la mémoire de travail d'une IA. C'est le nombre maximum de tokens qu'elle peut prendre en compte simultanément : ton prompt, l'historique de conversation, les fichiers fournis ET sa réponse. En 2026, les fenêtres varient énormément : GPT-4 gère 128K tokens, Claude peut aller jusqu'à 200K, et certains modèles atteignent 1M+. Plus la fenêtre est grande, plus tu peux fournir de contexte (fichiers, historique, documentation). Mais attention : une grande fenêtre ne signifie pas que l'IA utilise toute l'information de manière égale. Les informations au début et à la fin du contexte sont mieux retenues que celles au milieu.
Imagine un bureau de travail. Un petit bureau ne peut accueillir que quelques feuilles : tu dois constamment ranger pour poser de nouvelles choses. Un grand bureau te permet d'étaler tous tes documents en même temps et de travailler avec une vue d'ensemble. La fenêtre de contexte, c'est la taille de ton bureau numérique.
Un avocat utilise Claude pour analyser un contrat de 50 pages. Avec une fenêtre de 200K tokens, il peut coller l'intégralité du contrat + ses questions + le contexte juridique. L'IA analyse tout d'un coup et repère les clauses problématiques. Avec une fenêtre trop petite, il faudrait découper le contrat et perdre la vue d'ensemble.
Tu veux maîtriser ces concepts concrètement ?
LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.
Découvrir le programme