Cuente tokens para GPT-4o, GPT-4, Claude y otros modelos LLM al instante.
Cuente tokens para GPT-4o, GPT-4, GPT-3.5-turbo y modelos Claude simultáneamente.
Los conteos de tokens se actualizan instantáneamente mientras escribe o pega texto.
Utiliza el tokenizador BPE oficial (tiktoken) para conteos precisos de tokens GPT.
Todo el procesamiento ocurre en su navegador. Su texto nunca se envía a ningún servidor.
Un token es un fragmento de texto que los modelos de lenguaje procesan. Los tokens pueden ser palabras, partes de palabras o incluso caracteres individuales. Por ejemplo, la palabra 'hamburger' podría dividirse en 'ham', 'bur', 'ger' — tres tokens. En promedio, un token equivale a aproximadamente 4 caracteres o 0,75 palabras en inglés.
Diferentes modelos usan diferentes tokenizadores (esquemas de codificación). GPT-4o usa o200k_base con un vocabulario de 200.000 tokens, mientras que GPT-4 y GPT-3.5 usan cl100k_base con 100.000 tokens. Un vocabulario más grande significa que las palabras comunes son más propensas a ser tokens únicos.
Los conteos de tokens de Claude mostrados aquí son estimaciones aproximadas basadas en el tokenizador cl100k_base. Aunque Claude usa su propio tokenizador propietario, los conteos son generalmente muy cercanos a los valores reales.
Conocer su conteo de tokens le ayuda a mantenerse dentro de los límites de contexto del modelo (ej. 128K para GPT-4o, 200K para Claude 3.5), estimar costos de API y optimizar prompts eliminando texto innecesario.
Nuestro contador de tokens gratuito en línea ayuda a desarrolladores, ingenieros de prompts y entusiastas de la IA a contar tokens con precisión para modelos de lenguaje populares. Ya sea que esté construyendo aplicaciones con la API de OpenAI o la API de Claude de Anthropic, conocer su conteo de tokens es esencial.
La herramienta utiliza los algoritmos oficiales del tokenizador BPE para proporcionar conteos precisos para modelos GPT. Para modelos Claude, proporcionamos aproximaciones cercanas. Los conteos de tokens se calculan en tiempo real y admiten texto en cualquier idioma.
Toda la tokenización ocurre en su navegador usando JavaScript — su texto nunca se envía a ningún servidor. Esto lo hace seguro para prompts confidenciales y contenido sensible. No se requiere registro.