Accueil Métiers Blog Outils Glossaire Découvrir le programme
Glossaire / IA fondamentale

Fenêtre de contexte

La quantité maximale de texte qu'une IA peut traiter en une seule conversation. Plus elle est grande, plus l'IA peut gérer de contenu.

Intermédiaire
Fenêtre de contexte (ex: 200K tokens) System prompt Tes messages Fichiers Réponse

Définition complète

La fenêtre de contexte (ou context window) est la mémoire de travail d'une IA. C'est le nombre maximum de tokens qu'elle peut prendre en compte simultanément : ton prompt, l'historique de conversation, les fichiers fournis ET sa réponse. En 2026, les fenêtres varient énormément : GPT-4 gère 128K tokens, Claude peut aller jusqu'à 200K, et certains modèles atteignent 1M+. Plus la fenêtre est grande, plus tu peux fournir de contexte (fichiers, historique, documentation). Mais attention : une grande fenêtre ne signifie pas que l'IA utilise toute l'information de manière égale. Les informations au début et à la fin du contexte sont mieux retenues que celles au milieu.

Analogie pour comprendre

Imagine un bureau de travail. Un petit bureau ne peut accueillir que quelques feuilles : tu dois constamment ranger pour poser de nouvelles choses. Un grand bureau te permet d'étaler tous tes documents en même temps et de travailler avec une vue d'ensemble. La fenêtre de contexte, c'est la taille de ton bureau numérique.

En pratique

Un avocat utilise Claude pour analyser un contrat de 50 pages. Avec une fenêtre de 200K tokens, il peut coller l'intégralité du contrat + ses questions + le contexte juridique. L'IA analyse tout d'un coup et repère les clauses problématiques. Avec une fenêtre trop petite, il faudrait découper le contrat et perdre la vue d'ensemble.

Outils associés

Claude Code ChatGPT

Termes liés

Token LLM Context engineering RAG Prompt

Tu veux maîtriser ces concepts concrètement ?

LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.

Découvrir le programme

Pour aller plus loin

Guide IA 2026 →

Questions fréquentes

En français, 1 token vaut environ 3-4 caractères. Un texte de 1000 mots fait environ 1500 tokens. Un document de 50 pages fait environ 30 000 tokens.
L'IA commence à 'oublier' les premiers messages de la conversation. C'est pour ça que les longues sessions perdent parfois le fil. La solution : résumer ou relancer la conversation.
Pas forcément. La taille de la fenêtre compte pour traiter de gros documents, mais la qualité du raisonnement dépend du modèle lui-même. Un petit modèle avec une grande fenêtre ne remplace pas un bon modèle.