無料 LLM Token カウンター

GPT-4・Claude・Llama モデルの Token 数を即座にカウントします。AI API のコスト管理とコンテキスト制限の把握に不可欠なツールです。

0 文字0 単語0 0
GPT-4 / GPT-4o0
使用中のコンテキスト: 0.0%コンテキスト上限: 128,000
GPT-3.5 Turbo0
使用中のコンテキスト: 0.0%コンテキスト上限: 16,385
Claude 3.5 / 40
使用中のコンテキスト: 0.0%コンテキスト上限: 200,000
Llama 30
使用中のコンテキスト: 0.0%コンテキスト上限: 128,000

Token 数は BPE 近似に基づく推定値です。実際の数値はモデルバージョンによって若干異なる場合があります。

Token カウントについて

主要な LLM API 向けの高速クライアントサイド Token 推定ツールです。データはいかなるサーバーにも送信されません。

なぜ Token を数えるのか?

LLM API は Token 単位で課金し、コンテキストウィンドウの制限を設けています。リクエスト送信前に Token 数を把握することで、プロンプトの最適化・テキストの切り捨て防止・コスト管理に役立ちます。

主な機能

  • マルチモデル対応: GPT-4・GPT-3.5・Claude・Llama の Token 数を同時に推定。
  • リアルタイムカウント: 入力と同時に Token 数が即座に更新。
  • コンテキストバー: 各モデルのコンテキストウィンドウの使用量を視覚的に表示するプログレスバー。
  • ファイルインポート: .txt・.md・.json またはコードファイルを直接読み込んでバッチカウントが可能。

使い方

  1. プロンプトまたはテキストを入力エリアに貼り付けます。
  2. 各モデルの推定 Token 数をリアルタイムで確認します。
  3. コンテキストバーを使用して、テキストがモデルのコンテキスト制限内に収まっているか確認します。

よくある用途

  • LLM API を呼ぶ前にプロンプト量を見積もり、コンテキスト上限を超えないようにする。
  • GPT・Claude・Llama のおおよそのトークン使用量を比較し、予算や分割方針を決める前に検討する。
  • 長いプロンプトやシステムメッセージ、ナレッジ抜粋を本番コードに入れる前に長さを調整する。

数値の見方

表示はブラウザ上の近似値であり、各モデル公式トークナイザーと完全一致しません。計画・分割・コスト見積もりには有用ですが、請求や厳密な切り詰めはモデル専用トークナイザーで確認してください。

関連記事

OpenAI のトークンコスト見積もり – API 呼び出し前に

トークン数から OpenAI API コストを見積もる方法、GPT-4 / GPT-3.5 の料金、無料カウンターについて。

関連記事

LLM の Token カウントを理解する – GPT・Claude・Llama

トークナイゼーションの仕組み、Token カウントが重要な理由、API コストとコンテキスト制限の推定方法を学びます。

Frequently Asked Questions