Lorsqu’on parle d’intelligence artificielle et de modèles de langage comme GPT-4, il est essentiel de comprendre ce que sont les tokens. Pour l’expliquer de manière simple, prenons un exemple bien connu tiré du livre Le Petit Prince d’Antoine de Saint-Exupéry.
Imaginons que vous lisez ce passage célèbre :
« S’il vous plaît… apprivoise-moi ! dit-il. Je veux bien, répondit le petit prince, mais je n’ai pas beaucoup de temps. J’ai des amis à découvrir et beaucoup de choses à connaître. »
Lorsque nous lisons ce texte, notre cerveau traite chaque mot, chaque espace, chaque signe de ponctuation. Pour un modèle d’IA comme GPT-4, c’est exactement pareil, sauf qu’il découpe le texte en tokens.
Un token est une unité de texte qui peut être :
Chaque fois que vous interagissez avec un modèle d’IA, celui-ci décompose votre requête en tokens.
Ces deux éléments consomment des tokens. Par exemple, si vous posez une question de 100 tokens et que l’IA génère une réponse de 200 tokens, la requête totale est de 300 tokens.
Les modèles IA comme GPT-4 ont une limite de tokens par requête. Par exemple, GPT-4 peut traiter jusqu’à 8192 tokens par interaction. Plus votre message est long, moins il reste de tokens disponibles pour une réponse détaillée.
En API, cette notion est particulièrement importante car chaque token consommé a un coût. Optimiser vos messages vous permet donc de réduire vos coûts tout en obtenant des réponses plus pertinentes.
Comprendre ce qu’est un token est essentiel pour interagir efficacement avec un modèle d’intelligence artificielle. Que ce soit pour structurer vos requêtes ou réduire vos coûts en API, cette notion vous aide à mieux maîtriser vos échanges avec l’IA.