Pulsars

LLM-API-Preisrechner & Token-Kalkulator

Deine Prompts bleiben in deinem Browser. Das Token-Zählen erfolgt lokal.
0.5x1x2x5x
Preise mit gecachtem Input anzeigen
Gib einen Prompt oder eine Token-Anzahl ein, um Preise zu sehen
Preise zuletzt überprüft: März 2026. Aktuelle Preise auf den Anbieter-Websites prüfen.

Die Preisgestaltung von Large-Language-Model-APIs (LLM) basiert auf Tokens — Teilwort-Einheiten, die ungefähr 4 Zeichen oder 0,75 Wörtern auf Englisch entsprechen. Stand 2026 reichen die Preise von 0,07 $ pro Million Tokens (Gemini 2.0 Flash Input) bis 75 $ pro Million Tokens (GPT-4.5 Output) — eine Spanne von 1.000×. Input-Tokens (Ihr Prompt) sind typischerweise 2–10× günstiger als Output-Tokens (die Antwort des Modells), da die autoregressive Generierung deutlich mehr Rechenleistung pro Token erfordert als die Kodierung.

Wie werden KI-API-Kosten berechnet?

LLM-APIs berechnen pro Token mit separaten Tarifen für Input (Ihr Prompt) und Output (die Antwort des Modells). Ein Token entspricht ungefähr 4 Zeichen auf Englisch. Die Preise werden pro Million Tokens angegeben. Die Gesamtkosten einer Anfrage hängen von drei Faktoren ab: Anzahl der Input-Tokens, Anzahl der Output-Tokens und den Pro-Token-Tarifen des Modells. Beim Vergleich verschiedener Modelle ist es wichtig, beide Seiten zu berücksichtigen — ein Modell mit günstigen Input-Kosten kann bei Output-intensiven Aufgaben dennoch teuer werden.

Welches Modell ist am günstigsten?

Für volumenstarke Aufgaben mit geringer Komplexität (Klassifikation, Extraktion, einfache Q&A) bieten Budget-Modelle wie GPT-4o mini, Gemini Flash oder Mistral Small das beste Kosten-Qualitäts-Verhältnis. Für komplexes Reasoning, Coding oder kreative Aufgaben bieten Mittelklasse-Modelle wie Claude Sonnet oder GPT-4o die beste Balance. Reservieren Sie Premium-Modelle (Claude Opus, GPT-4.5) für Aufgaben, bei denen Qualität nicht verhandelbar ist und das Volumen gering bleibt. Erstellen Sie Ihre System-Prompts mit unserem System-Prompt-Formatter und optimieren Sie gleichzeitig Kosten und Ergebnisqualität.

Häufig gestellte Fragen

Wie werden LLM-API-Tokens gezählt?

+

Tokens sind Teilwort-Einheiten — ungefähr 4 Zeichen oder 0,75 Wörter auf Englisch. Unser Schätzer gibt eine ±10 %-Annäherung. Exakte Zahlen hängen vom Tokenizer des jeweiligen Modells ab.

Warum kosten Output-Tokens mehr als Input-Tokens?

+

Das Generieren von Text erfordert mehr Rechenleistung als das Lesen. Output-Tokens durchlaufen den vollständigen autoregressiven Dekodierungsprozess, der pro Token grundsätzlich teurer ist.

Was ist gecachte Eingabepreisgestaltung?

+

Einige Anbieter (OpenAI, Anthropic, DeepSeek) bieten reduzierte Preise, wenn derselbe Kontextpräfix erneut gesendet wird. Das ist nützlich für Anwendungen mit großen System-Prompts, die sich selten ändern.

Welche LLM-API ist am günstigsten?

+

Für die meisten Anwendungsfälle 2026 bieten Gemini 2.0 Flash und Mistral Small die niedrigsten Pro-Token-Kosten. DeepSeek V3 ist ebenfalls sehr wettbewerbsfähig. Die günstigste Option hängt von Ihren Qualitätsanforderungen ab.

Wie oft ändern sich LLM-API-Preise?

+

Preise sinken regelmäßig — typischerweise alle 3–6 Monate. OpenAI und Anthropic haben beide die Preise mehrfach gesenkt. Wir überprüfen die Preise monatlich, empfehlen aber die Anbieterwebsites zu konsultieren.

Related Tools