Contador de Tokens

Conte tokens para GPT-4o, GPT-4, Claude e outros modelos LLM instantaneamente.

...
GPT-4o Tokens
GPT-4o, GPT-4o-mini
...
GPT-4 Tokens
GPT-4, GPT-4-turbo, GPT-3.5-turbo
...
Claude Tokens
Claude 4, Claude 3.5, Claude 3(aprox.)
0
Caracteres
0
Palavras

Recursos

Suporte Multi-Modelo

Conte tokens para GPT-4o, GPT-4, GPT-3.5-turbo e modelos Claude simultaneamente.

Contagem em Tempo Real

As contagens de tokens são atualizadas instantaneamente enquanto você digita ou cola texto.

Tokenização Precisa

Usa o tokenizador BPE oficial (tiktoken) para contagens precisas de tokens GPT.

Privacidade em Primeiro Lugar

Todo o processamento acontece no seu navegador. Seu texto nunca é enviado a nenhum servidor.

Perguntas Frequentes

O que é um token no contexto dos LLMs?

Um token é um pedaço de texto que os modelos de linguagem processam. Tokens podem ser palavras, partes de palavras ou até caracteres individuais. Por exemplo, a palavra 'hamburger' pode ser dividida em 'ham', 'bur', 'ger' — três tokens. Em média, um token equivale a aproximadamente 4 caracteres ou 0,75 palavras em inglês.

Por que diferentes modelos têm contagens de tokens diferentes?

Diferentes modelos usam diferentes tokenizadores (esquemas de codificação). O GPT-4o usa o200k_base com um vocabulário de 200.000 tokens, enquanto GPT-4 e GPT-3.5 usam cl100k_base com 100.000 tokens.

Quão precisas são as contagens de tokens do Claude?

As contagens de tokens do Claude mostradas aqui são estimativas aproximadas baseadas no tokenizador cl100k_base. Embora o Claude use seu próprio tokenizador proprietário, as contagens são geralmente muito próximas dos valores reais.

Como posso usar as contagens de tokens para otimizar meus prompts?

Conhecer sua contagem de tokens ajuda a ficar dentro dos limites de contexto do modelo (ex. 128K para GPT-4o, 200K para Claude 3.5), estimar custos de API e otimizar prompts removendo texto desnecessário.

Sobre o Contador de Tokens

Nosso contador de tokens gratuito online ajuda desenvolvedores, engenheiros de prompts e entusiastas de IA a contar tokens com precisão para modelos de linguagem populares. Seja construindo aplicações com a API OpenAI ou a API Claude da Anthropic, conhecer sua contagem de tokens é essencial.

A ferramenta usa os algoritmos oficiais do tokenizador BPE para fornecer contagens precisas para modelos GPT. Para modelos Claude, fornecemos aproximações próximas. As contagens são calculadas em tempo real e suportam texto em qualquer idioma.

Toda a tokenização acontece no seu navegador usando JavaScript — seu texto nunca é enviado a nenhum servidor. Isso o torna seguro para prompts confidenciais e conteúdo sensível. Sem necessidade de cadastro.