Đếm token cho GPT-4o, GPT-4, Claude và các mô hình LLM khác ngay lập tức.
Đếm token cho GPT-4o, GPT-4, GPT-3.5-turbo và các mô hình Claude đồng thời.
Số lượng token được cập nhật ngay lập tức khi bạn nhập hoặc dán văn bản.
Sử dụng tokenizer BPE chính thức (tiktoken) để đếm token GPT chính xác.
Tất cả xử lý diễn ra trong trình duyệt của bạn. Văn bản không bao giờ được gửi đến bất kỳ máy chủ nào.
Token là một đoạn văn bản mà mô hình ngôn ngữ xử lý. Token có thể là từ, phần của từ hoặc thậm chí là ký tự đơn lẻ. Ví dụ, từ 'hamburger' có thể được chia thành 'ham', 'bur', 'ger' — ba token.
Các mô hình khác nhau sử dụng các tokenizer (sơ đồ mã hóa) khác nhau. GPT-4o sử dụng o200k_base với từ vựng 200.000 token, trong khi GPT-4 và GPT-3.5 sử dụng cl100k_base với 100.000 token.
Số token Claude hiển thị ở đây là ước tính gần đúng dựa trên tokenizer cl100k_base. Mặc dù Claude sử dụng tokenizer riêng, các con số thường rất gần với giá trị thực tế.
Biết số token giúp bạn giữ trong giới hạn ngữ cảnh của mô hình (ví dụ 128K cho GPT-4o, 200K cho Claude 3.5), ước tính chi phí API và tối ưu hóa prompt bằng cách loại bỏ văn bản không cần thiết.
Bộ đếm token miễn phí trực tuyến giúp các nhà phát triển, kỹ sư prompt và người đam mê AI đếm token chính xác cho các mô hình ngôn ngữ phổ biến. Dù bạn xây dựng ứng dụng với API OpenAI hay API Claude, việc biết số token là cần thiết.
Công cụ sử dụng thuật toán tokenizer BPE chính thức để cung cấp số đếm chính xác cho các mô hình GPT. Cho các mô hình Claude, chúng tôi cung cấp ước tính gần đúng. Số đếm được tính theo thời gian thực và hỗ trợ văn bản bằng bất kỳ ngôn ngữ nào.
Tất cả quá trình token hóa diễn ra trong trình duyệt bằng JavaScript — văn bản không bao giờ được gửi đến máy chủ nào. Điều này an toàn cho prompt bí mật và nội dung nhạy cảm. Không cần đăng ký.