链接:https://michaelcurrin.github.io/token-translator/
(进不去就上魔法)

所谓Token,就是AI大模型的处理上下文单位,不同的模型会有不同的Token限制,上面那个网站页面上也列出了比较常见的一些模型的Token限制(例如Gemini 2.5 PRO是1m,DeepSeek是64k等)

所谓爆上下文,本质就是你一次会话中输入的Token量超过了上面所述的Token限制,这一般会导致AI从头开始忘记细节。

判断方法:将你的文本贴进页面中间Custom input下面的文本框中,然后上面的选项点Text content,再上面表格中的Tokens就会显示出文本的大致Token数。
QQ20251001-192929.png

注意,规则书这东西也是算在Token限制中的——作为参照,增熵星 + galekkomari v0.95 这两个规则书加起来是2714Tokens。

感觉和字数基本上是成比例的 4:1左右

引用自: 紫宵 于 十月 02, 2025, 05:15 上午感觉和字数基本上是成比例的 4:1左右
代码,格式符号和关键词会更省,自然语言更费
Gemini导出的东西都叫【XX协议】也是他在执行效力和token占用之间平衡的结果