GitHub Copilot change la façon dont ses capacités sont facturées. Jusqu’ici, l’accès s’appuyait notamment sur un volume de requêtes mensuelles. À présent, l’outil s’appuie davantage sur des « crédits » liés au nombre de tokens consommés, ce qui peut modifier la manière dont les développeurs anticipent leur usage, en particulier sur des bases de code importantes ou avec des demandes complexes.
Comprendre le rôle des tokens
Dans les systèmes d’IA générative, un token correspond à un fragment de texte. Il est souvent décrit comme représentant environ les trois quarts d’un mot. Concrètement, lorsqu’un modèle traite un contenu long, le nombre de tokens augmente rapidement : un corpus d’environ 10 000 mots peut représenter de l’ordre de 12 000 à 13 000 tokens.
Du point de vue du développeur, cela concerne aussi le code. Par exemple, si un extrait de 10 000 « mots » de code — incluant expressions, déclarations, noms de variables et fonctions — est analysé lors d’une requête de Copilot, cette opération peut consommer un volume de tokens comparable, donc une partie du budget mensuel basé sur les crédits.
Les invites et les réponses comptent aussi
La consommation de tokens ne se limite pas à ce que Copilot reçoit. Le texte d’instruction (prompt) soumis en entrée compte également, tout comme les sorties générées par l’assistant. Autrement dit, plus la requête est détaillée et plus la réponse attendue est longue, plus la facture en tokens peut grimper.
Des « AI Credits » en remplacement des requêtes
À partir du prochain cycle tarifaire, GitHub conserve des paliers de prix au même niveau, mais remplace le décompte des requêtes mensuelles par un système d’AI Credits. Pour l’offre de base Copilot Pro, annoncée à 10 dollars par mois, l’abonnement inclut 1 000 crédits. GitHub indique que, pour l’instant, un crédit équivaut à environ un centime de dollar.
Le nombre exact de tokens achetés par crédit n’est pas fixe : il dépend notamment du modèle utilisé, du rapport entre la taille des entrées et des sorties, de la capacité de contexte (cache) disponible pour l’IA, et des fonctionnalités sollicitées. En pratique :
- des requêtes simples et fréquentes peuvent consommer les crédits de façon plus lente ;
- des demandes multi-agents portant sur un code volumineux et complexe peuvent vider le solde plus rapidement ;
- les modèles les plus performants de type « frontier » coûtent généralement plus cher en tokens que les versions moins avancées.
Ce qui reste gratuit
GitHub précise toutefois que certaines fonctions ne sont pas concernées par cette logique de crédits. Les suggestions de complétion de code, similaires à l’auto-complétion d’un téléphone, ainsi que les recommandations « Next Edit » demeurent accessibles gratuitement.
Ce que cela implique pour les développeurs
Le passage aux crédits met davantage l’accent sur la « taille » des requêtes et sur leur complexité plutôt que sur leur simple nombre. Les équipes qui utilisent Copilot pour des analyses ponctuelles sur de petits fichiers verront peut-être une consommation maîtrisée. À l’inverse, celles qui automatisent des revues profondes, des refactorings importants ou des scénarios impliquant plusieurs étapes de raisonnement devront surveiller plus attentivement leur rythme d’utilisation.
Pour gérer plus efficacement des bases de code volumineuses, certains développeurs s’appuient aussi sur des environnements et outils de navigation adaptés, comme un clavier compact mécanique pour accélérer l’édition et le passage entre fichiers, ou sur des supports de développement pour organiser les projets, par exemple un SSD externe USB-C de 1 To afin de travailler plus facilement sur des clones de projets lourds.

