Token
Unité de texte (mot, partie de mot ou caractère) que l'IA traite. Plus de tokens = plus de capacité mais plus de coût.
Définition complète
Un token est la plus petite unité de texte qu'un LLM peut traiter. Un mot courant = 1 token. Un mot long ou technique = 2-3 tokens. Un texte de 1000 mots fait environ 1300-1500 tokens. Les tokens sont importants pour deux raisons : (1) la fenêtre de contexte définit combien de tokens l'IA peut traiter en une fois, et (2) la tarification API est calculée en tokens. Claude Opus traite jusqu'à 200K tokens de contexte (environ 150 000 mots) en une seule conversation.
Analogie pour comprendre
Pense aux tokens comme des pièces de Lego. Chaque pièce est un petit bout de mot. L'IA assemble ces pièces pour comprendre ton texte et en construire un nouveau. Plus elle a de pièces disponibles (fenêtre de contexte), plus elle peut construire de choses complexes.
En pratique
La phrase 'Bonjour, comment vas-tu ?' fait environ 7 tokens. Un article de blog de 2000 mots fait environ 2600 tokens. Quand Claude Code analyse ton projet entier, il consomme des milliers de tokens pour 'lire' tous tes fichiers.
Outils associés
Termes liés
Pour aller plus loin
Questions fréquentes
Ça dépend du modèle. Claude Sonnet : ~3$/million de tokens en entrée. GPT-4o : ~2.5$/million. Pour un usage normal via Claude Pro (20$/mois), tu ne paies pas au token.
C'est le nombre maximum de tokens que l'IA peut traiter en une conversation. Claude Opus gère jusqu'à 200K tokens (environ 500 pages). Plus la fenêtre est grande, plus l'IA peut 'se souvenir' de la conversation.