Contador de Tokens para LLMs Gratis

Cuenta tokens para los modelos GPT-4, Claude y Llama al instante. Esencial para gestionar los costes de la API de IA y los límites de contexto.

0 caracteres0 palabras0 líneas0 oraciones
GPT-4 / GPT-4o0
Contexto usado: 0.0%Límite de contexto: 128,000
GPT-3.5 Turbo0
Contexto usado: 0.0%Límite de contexto: 16,385
Claude 3.5 / 40
Contexto usado: 0.0%Límite de contexto: 200,000
Llama 30
Contexto usado: 0.0%Límite de contexto: 128,000

Los recuentos de tokens son estimaciones basadas en aproximación BPE. Los valores reales pueden variar ligeramente según la versión del modelo.

Acerca del Conteo de Tokens

Un estimador de tokens rápido en el cliente para las APIs de LLM más populares. No se envía ningún dato a ningún servidor.

¿Por qué contar tokens?

Las APIs de LLM cobran por token y aplican límites de ventana de contexto. Conocer tu recuento de tokens antes de enviar una solicitud te ayuda a optimizar los prompts, evitar truncamientos y controlar los costes.

Características Clave

  • Soporte multimodelo: estima tokens para GPT-4, GPT-3.5, Claude y Llama simultáneamente.
  • Conteo en tiempo real: el recuento de tokens se actualiza al instante mientras escribes.
  • Barra de contexto: barra de progreso visual que muestra cuánto de la ventana de contexto de cada modelo se está usando.
  • Importación de archivos: carga directamente archivos .txt, .md, .json o de código para conteo por lotes.

Cómo Usar

  1. Pega tu prompt o texto en el área de entrada.
  2. Consulta el recuento estimado de tokens para cada modelo en tiempo real.
  3. Usa la barra de contexto para asegurarte de que tu texto cabe dentro del límite de contexto del modelo.

Casos de uso habituales

  • Estima el tamaño del prompt antes de llamar a una API de LLM para no superar la ventana de contexto.
  • Compara el uso aproximado de tokens entre GPT, Claude y Llama antes de decidir presupuesto o troceado.
  • Recorta prompts largos, mensajes de sistema o extractos de bases de conocimiento antes de pasarlos a producción.

Cómo interpretar estas estimaciones

Los números son aproximaciones en el navegador, no recuentos exactos del tokenizer oficial de cada modelo. Sirven para planificar, trocear y estimar costes; el facturado final o un truncado estricto deben comprobarse con el tokenizer del modelo.

Artículo relacionado

Estimación de coste de tokens OpenAI – Antes de llamar a la API

Cómo estimar costes de la API de OpenAI con recuentos de tokens, precios GPT-4/GPT-3.5 y herramientas gratuitas.

Artículo relacionado

Entendiendo el Conteo de Tokens para LLMs – GPT, Claude, Llama

Aprende cómo funciona la tokenización, por qué importa el conteo de tokens y cómo estimar costes de API y límites de contexto.

Frequently Asked Questions