Pulsars

Calculateur de Coûts API LLM

Vos prompts restent dans votre navigateur. Le comptage de tokens est fait localement.
0.5x1x2x5x
Afficher les prix avec cache d’entrée
Entrez un prompt ou un nombre de tokens pour voir les prix
Prix vérifiés en mars 2026. Consultez les sites des fournisseurs pour les tarifs actuels.

Le coût d'utilisation des API de modèles de langage (LLMs) est facturé au token — une unité linguistique d'environ 4 caractères en anglais ou 3 en langues latines. En mars 2026, les prix varient de 0,10 $ par million de tokens d'entrée (Gemini 2.0 Flash, Mistral Small) à 75 $ (GPT-4.5 Preview), soit un ratio de 1 à 750 entre le modèle le moins cher et le plus cher. Les tokens de sortie coûtent 2 à 4 fois plus que les tokens d'entrée. Le contexte en cache (cached input) permet des réductions de 50 à 90% sur le prix d'entrée pour les prompts système répétés. Le choix du modèle dépend du rapport qualité/coût pour le cas d'usage spécifique.

Comment fonctionne la tarification par tokens des API LLM ?

Les API LLM facturent au token, avec des tarifs séparés pour l'entrée (votre prompt) et la sortie (la réponse du modèle). Un token représente environ 4 caractères en anglais. Les prix sont exprimés par million de tokens.

Quel modèle LLM choisir selon son budget ?

Pour les tâches à haut volume et faible complexité, les modèles économiques comme GPT-4o mini, Gemini Flash ou Mistral Small offrent d'excellents ratios coût/qualité. Pour le raisonnement complexe ou le code, Claude Sonnet ou GPT-4o offrent le meilleur équilibre. Réservez les modèles premium aux tâches où la qualité est non négociable.

Questions Fréquentes

Comment sont comptés les tokens des API LLM ?

+

Les tokens sont des sous-unités de mots — environ 4 caractères ou 0,75 mot en anglais. Notre estimateur donne une approximation à ±10%. Le compte exact dépend du tokenizer de chaque modèle.

Pourquoi les tokens de sortie coûtent-ils plus cher ?

+

Générer du texte nécessite plus de calcul que le lire. Les tokens de sortie passent par le processus de décodage autoregressif, intrinsèquement plus coûteux par token.

Qu'est-ce que le prix d'entrée en cache ?

+

Certains fournisseurs (OpenAI, Anthropic, DeepSeek) offrent des prix réduits pour le contexte réenvoyé à l'identique. Utile pour les applications avec de longs prompts système qui changent rarement.

Quelle API LLM est la moins chère ?

+

En 2026, Gemini 2.0 Flash et Mistral Small offrent les coûts par token les plus bas. DeepSeek V3 est aussi très compétitif. Le choix dépend de vos exigences en qualité.

Les prix des API LLM changent-ils souvent ?

+

Les prix baissent fréquemment — tous les 3-6 mois en moyenne. OpenAI et Anthropic ont réduit leurs prix plusieurs fois. Nous vérifions mensuellement mais recommandons de consulter les sites officiels.

Outils connexes