Contatore di Token

Conta i token per GPT-4o, GPT-4, Claude e altri modelli LLM istantaneamente.

...
GPT-4o Token
GPT-4o, GPT-4o-mini
...
GPT-4 Token
GPT-4, GPT-4-turbo, GPT-3.5-turbo
...
Claude Token
Claude 4, Claude 3.5, Claude 3(approx.)
0
Caratteri
0
Parole

Funzionalità

Supporto Multi-Modello

Conta i token per GPT-4o, GPT-4, GPT-3.5-turbo e modelli Claude simultaneamente.

Conteggio in Tempo Reale

I conteggi dei token si aggiornano istantaneamente mentre digiti o incolli il testo.

Tokenizzazione Precisa

Utilizza il tokenizer BPE ufficiale (tiktoken) per conteggi precisi dei token GPT.

Privacy Prima di Tutto

Tutta l'elaborazione avviene nel tuo browser. Il tuo testo non viene mai inviato a nessun server.

Domande Frequenti

Cos'è un token nel contesto degli LLM?

Un token è un pezzo di testo che i modelli linguistici elaborano. I token possono essere parole, parti di parole o singoli caratteri. Ad esempio, la parola 'hamburger' potrebbe essere divisa in 'ham', 'bur', 'ger' — tre token. In media, un token equivale a circa 4 caratteri o 0,75 parole in inglese.

Perché modelli diversi hanno conteggi di token diversi?

Modelli diversi utilizzano tokenizer diversi (schemi di codifica). GPT-4o usa o200k_base con un vocabolario di 200.000 token, mentre GPT-4 e GPT-3.5 usano cl100k_base con 100.000 token. Un vocabolario più grande significa che le parole comuni sono più probabilmente token singoli.

Quanto sono accurati i conteggi dei token di Claude?

I conteggi dei token di Claude mostrati qui sono stime approssimative basate sul tokenizer cl100k_base. Sebbene Claude utilizzi il proprio tokenizer proprietario, i conteggi sono generalmente molto vicini ai valori reali.

Come posso usare i conteggi dei token per ottimizzare i miei prompt?

Conoscere il conteggio dei token ti aiuta a rimanere entro i limiti di contesto del modello (es. 128K per GPT-4o, 200K per Claude 3.5), stimare i costi API e ottimizzare i prompt rimuovendo testo non necessario.

Informazioni sul Contatore di Token

Il nostro contatore di token gratuito online aiuta sviluppatori, ingegneri di prompt e appassionati di IA a contare con precisione i token per i modelli linguistici più diffusi. Che tu stia costruendo applicazioni con l'API OpenAI o l'API Claude di Anthropic, conoscere il conteggio dei token è essenziale.

Lo strumento utilizza gli algoritmi ufficiali del tokenizer BPE per fornire conteggi precisi per i modelli GPT. Per i modelli Claude, forniamo approssimazioni vicine. I conteggi vengono calcolati in tempo reale e supportano testo in qualsiasi lingua.

Tutta la tokenizzazione avviene nel tuo browser usando JavaScript — il tuo testo non viene mai inviato a nessun server. Questo lo rende sicuro per prompt confidenziali e contenuti sensibili. Nessuna registrazione richiesta.