Comprendre les tokens en IA avec Le Petit Prince

Lorsqu’on parle d’intelligence artificielle et de modèles de langage comme GPT-4, il est essentiel de comprendre ce que sont les tokens. Pour l’expliquer de manière simple, prenons un exemple bien connu tiré du livre Le Petit Prince d’Antoine de Saint-Exupéry.

Une analogie littéraire : Le Petit Prince

Imaginons que vous lisez ce passage célèbre :

« S’il vous plaît… apprivoise-moi ! dit-il. Je veux bien, répondit le petit prince, mais je n’ai pas beaucoup de temps. J’ai des amis à découvrir et beaucoup de choses à connaître. »

Lorsque nous lisons ce texte, notre cerveau traite chaque mot, chaque espace, chaque signe de ponctuation. Pour un modèle d’IA comme GPT-4, c’est exactement pareil, sauf qu’il découpe le texte en tokens.

Qu’est-ce qu’un token ?

Un token est une unité de texte qui peut être :

  • Un mot entier (par exemple : "Bonjour" = 1 token).
  • Une partie d’un mot (par exemple : "apprivoiser" peut être découpé en "appri" + "voiser" = 2 tokens).
  • Des caractères spéciaux, des ponctuations ou des espaces (par exemple : "..." ou "!" = 1 token chacun).

Comment cela fonctionne ?

Chaque fois que vous interagissez avec un modèle d’IA, celui-ci décompose votre requête en tokens.

  • Entrée : Ce que vous lui demandez, qu’il s’agisse d’une question ou d’une consigne spécifique.
  • Sortie : Ce que le modèle génère comme réponse.

Ces deux éléments consomment des tokens. Par exemple, si vous posez une question de 100 tokens et que l’IA génère une réponse de 200 tokens, la requête totale est de 300 tokens.

Pourquoi c’est important ?

Les modèles IA comme GPT-4 ont une limite de tokens par requête. Par exemple, GPT-4 peut traiter jusqu’à 8192 tokens par interaction. Plus votre message est long, moins il reste de tokens disponibles pour une réponse détaillée.

En API, cette notion est particulièrement importante car chaque token consommé a un coût. Optimiser vos messages vous permet donc de réduire vos coûts tout en obtenant des réponses plus pertinentes.

Comment bien utiliser les tokens ?

  • Soyez clair et concis. Cela permet au modèle d’avoir plus de place pour générer une réponse pertinente.
  • Segmentez vos requêtes. Si votre demande est trop longue, divisez-la en plusieurs requêtes plus courtes.
  • Testez vos messages. Vous pouvez vérifier comment vos textes sont découpés en tokens en utilisant l’outil OpenAI Tokenizer.

Conclusion

Comprendre ce qu’est un token est essentiel pour interagir efficacement avec un modèle d’intelligence artificielle. Que ce soit pour structurer vos requêtes ou réduire vos coûts en API, cette notion vous aide à mieux maîtriser vos échanges avec l’IA.

Échangez avec un expert IA

Enrichissez vos données

Données nettoyées, classées et enrichies par l’IA.

En savoir plus

Analysez vos données

Insights clairs et actionnables générés grâce à l’IA.

En savoir plus

Automatisez vos processus

Reportings et process métiers automatisés avec l’IA.

En savoir plus
Ils nous font confiance
Strat37, partenaire de la French Tech, spécialisé en IA et Data pour des insights actionnables.Strat37, partenaire de Microsoft for Startups Founders Hub, spécialisé en IA et Data pour des insights actionnables.