Token-Zähler

Zählen Sie Tokens für GPT-4o, GPT-4, Claude und andere LLM-Modelle sofort.

...
GPT-4o Tokens
GPT-4o, GPT-4o-mini
...
GPT-4 Tokens
GPT-4, GPT-4-turbo, GPT-3.5-turbo
...
Claude Tokens
Claude 4, Claude 3.5, Claude 3(ca.)
0
Zeichen
0
Wörter

Funktionen

Multi-Modell-Unterstützung

Zählen Sie gleichzeitig Tokens für GPT-4o, GPT-4, GPT-3.5-turbo und Claude-Modelle.

Echtzeit-Zählung

Token-Zahlen werden sofort aktualisiert, während Sie tippen oder Text einfügen.

Präzise Tokenisierung

Verwendet den offiziellen BPE-Tokenizer (tiktoken) für präzise GPT-Token-Zählungen.

Datenschutz zuerst

Alle Verarbeitung erfolgt in Ihrem Browser. Ihr Text wird niemals an einen Server gesendet.

Häufig gestellte Fragen

Was ist ein Token im Kontext von LLMs?

Ein Token ist ein Textstück, das Sprachmodelle verarbeiten. Tokens können Wörter, Teile von Wörtern oder sogar einzelne Zeichen sein. Zum Beispiel könnte das Wort 'hamburger' in 'ham', 'bur', 'ger' aufgeteilt werden — drei Tokens. Im Durchschnitt entspricht ein Token etwa 4 Zeichen oder 0,75 Wörtern auf Englisch.

Warum haben verschiedene Modelle unterschiedliche Token-Zahlen?

Verschiedene Modelle verwenden unterschiedliche Tokenizer (Kodierungsschemata). GPT-4o verwendet o200k_base mit einem Vokabular von 200.000 Tokens, während GPT-4 und GPT-3.5 cl100k_base mit 100.000 Tokens verwenden. Ein größeres Vokabular bedeutet, dass häufige Wörter eher einzelne Tokens sind.

Wie genau sind die Claude-Token-Zahlen?

Die hier angezeigten Claude-Token-Zahlen sind ungefähre Schätzungen basierend auf dem cl100k_base-Tokenizer. Obwohl Claude seinen eigenen proprietären Tokenizer verwendet, sind die Zahlen im Allgemeinen sehr nahe an den tatsächlichen Werten.

Wie kann ich Token-Zahlen zur Optimierung meiner Prompts nutzen?

Die Kenntnis Ihrer Token-Zahl hilft Ihnen, innerhalb der Modell-Kontextgrenzen zu bleiben (z.B. 128K für GPT-4o, 200K für Claude 3.5), API-Kosten abzuschätzen und Prompts durch Entfernen unnötigen Texts zu optimieren.

Über den Token-Zähler

Unser kostenloser Online-Token-Zähler hilft Entwicklern, Prompt-Ingenieuren und KI-Enthusiasten, Tokens für beliebte Sprachmodelle genau zu zählen. Ob Sie Anwendungen mit der OpenAI-API oder Anthropics Claude-API erstellen — die Kenntnis Ihrer Token-Zahl ist essentiell für Kostenmanagement.

Das Tool verwendet die offiziellen BPE-Tokenizer-Algorithmen für präzise GPT-Zählungen. Für Claude-Modelle bieten wir enge Annäherungen. Token-Zahlen werden in Echtzeit berechnet und unterstützen Text in jeder Sprache.

Die gesamte Tokenisierung erfolgt in Ihrem Browser mit JavaScript — Ihr Text wird niemals an einen Server gesendet. Dies macht es sicher für vertrauliche Prompts und sensible Inhalte. Keine Anmeldung erforderlich.