Calculadora de Tokens de Inteligência Artificial

Conte e estime tokens de prompts e respostas (entrada + saída), compare custo por milhão, valide janela de contexto e opcionalmente use tokenização exata cl100k_base.

Contagem precisa Estimativa rápida Compatível com cl100k_base Privacidade 100% local

Atualizado em

Prompt (entrada)

Caracteres

0

Palavras

0

Tokens

0

Saída esperada (opcional)

Caracteres

0

Palavras

0

Tokens

0

Resumo

Total de tokens

0

Janela de contexto

Custo estimado (entrada)

Custo estimado (saída)

Custo total

Configurações (opcionais)

Dica: PT-BR costuma ficar entre 3.8–4.6. Ajuste conforme seu caso. Usado quando a tokenização exata estiver desligada ou indisponível.

A ferramenta acima funcionou?

Como usar a ferramenta

Conte ou estime tokens de prompts e respostas para modelos como GPT‑4o, GPT‑4, GPT‑3.5, Claude, Gemini e outros. Ideal para prever custos antes de chamar a API.

  1. Escreva ou cole o seu Prompt (entrada) no primeiro campo de texto. A contagem de caracteres, palavras e tokens aparece automaticamente.
  2. (Opcional) Preencha a Saída esperada para simular o custo total (entrada + saída). Se deixar em branco, a ferramenta mostra apenas a entrada.
  3. (Opcional) Ajuste o valor de Caracteres por token para uma estimativa mais fiel ao seu idioma/estilo de texto. Em PT-BR, valores entre 3.8 e 4.6 costumam funcionar bem.
  4. (Opcional) Ative Usar tokenização exata para contar tokens com o dicionário compatível (cl100k_base). O módulo é carregado sob demanda. Caso não carregue, a ferramenta volta para a estimativa automaticamente.
  5. (Opcional) Marque Usar modelos pré-definidos para escolher um modelo popular e visualizar a janela de contexto (limite de tokens). A ferramenta alerta se o total de tokens exceder esse limite.
  6. (Opcional) Preencha os preços por 1.000.000 tokens (entrada/saída). Se não preencher, os custos ficam com traço (—) e não entram no cálculo.
  7. Use o botão Copiar resumo para copiar os números e colar no seu relatório, planilha ou conversa.
  8. As suas preferências (modos, modelo, janela, preços, caracteres por token) ficam salvas localmente para facilitar os próximos usos. Você pode limpar em Limpar preferências.
Dica:
    Você pode colar um histórico completo de chat (várias mensagens concatenadas) para estimar o custo total antes de enviar à API, evitando exceder a janela de contexto ou surpresas de faturamento.
Dica:
  • Para orçamentos rápidos, mantenha a estimativa por caracteres por token; é leve e suficientemente precisa na maioria dos casos.
  • Se você precisa de alta precisão (contratos, auditoria de custo), ative a tokenização exata. Lembre-se: a exatidão depende do dicionário do modelo.
  • Textos com muitos símbolos, URLs e código geralmente geram mais tokens do que a mesma quantidade de caracteres em prosa.
  • Alguns provedores cobram valores diferentes para entrada e saída. Preencha ambos os campos de preço para uma projeção mais realista.
  • Informe o preço por 1.000.000 de tokens, conforme padrão da OpenAI e outros provedores.
Informações sobre a ferramenta:
  • Calculadora de tokens 100% no navegador: privacidade total, sem uploads.
  • Compatível com estimativa universal e tokenização exata (cl100k_base) sob demanda.
  • Modelos e janela de contexto são opcionais; a ferramenta foca na contagem de tokens dos textos informados.
  • Preferências salvas no seu navegador para uma experiência personalizada.
  • Cálculo de custo baseado em preço por 1.000.000 de tokens.

Perguntas Frequentes

Basta colar o texto no campo de entrada. A ferramenta mostra caracteres, palavras e tokens estimados ou exatos (se você ativar a opção cl100k_base) em tempo real.

A estimativa divide caracteres pelo fator escolhido (ex.: 4). A exata usa o vocabulário cl100k_base, refletindo a contagem real usada para faturamento em modelos compatíveis.

Informe os preços de entrada e saída por 1.000.000 de tokens. A calculadora multiplica a contagem de tokens (entrada/saída) e exibe o custo estimado e total.

Sim. A estimativa serve para qualquer LLM. A contagem exata usa cl100k_base, adequada a modelos OpenAI compatíveis e similar a outros de vocabulário equivalente.

Sim. Ative “Usar modelos pré-definidos”, selecione um modelo e a janela de contexto aparece. Se a soma de tokens exceder, um alerta é exibido.

Não. Tudo roda localmente no seu navegador. Apenas preferências (ex.: preços, modo) ficam em armazenamento local e você pode limpar quando quiser.

Português costuma variar de ~3,8 a 4,6 caracteres por token. Ajuste conforme o tipo de texto (código, URLs e símbolos elevam a contagem de tokens).

Sim. Una as mensagens em ordem no campo de entrada (e a saída estimada no campo secundário, se quiser). Assim você antecipa custo e verifica o limite de contexto.

Ferramentas Similares

Descubra outras ferramentas que podem ser úteis para você