
本文重點
- Claude Opus 4.7 換了新 Tokenizer,同一段文字比 4.6 多消耗 0%~35% 的 Token,定價本身沒有調漲。
- 程式碼和繁中文字影響最大(實測最高到 47%),純英文白話文影響最小(約 20%)。
- 可以透過 effort 設定、task_budget 和 Batch API 來控制費用增幅。
簡單地說,你的 Token 帳單可能會變貴,即使 Anthropic 沒有調整定價。
Anthropic 在 Claude Opus 4.7 裡換了一個新的 Tokenizer(分詞器)。同樣一段文字,在 4.7 底下會被切成更多的 Token,而你付的錢是按 Token 數算。定價牌子沒動:還是每百萬 input token $5、每百萬 output token $25。但如果同一段提示詞現在吃掉 1.3 倍的 token,帳單就實質上漲了 30%。

為什麼 Anthropic 要換 Tokenizer?
Tokenizer 是模型把文字轉成數字序列的方式。不同的 Tokenizer 有不同的拆法:有些把「programming」拆成一個 token,有些拆成好幾個。Anthropic 說,新 Tokenizer 讓 Opus 4.7 在各類任務上的表現更好,尤其是推理、程式碼理解、和視覺任務。換 Tokenizer 是底層訓練的決定,是為了性能而付出的代價。
實際會多多少 Token?
根據 Anthropic 官方文件,新 Tokenizer 會讓同樣的文字消耗約 1.0x 到 1.35x 的 token(最多多 35%),且因內容種類而異。
第三方實測(claudecodecamp.com)在技術文件和真實的 CLAUDE.md 上觀察到 1.45x ~ 1.47x,略高於官方估計。
| 內容類型 | 估計 Token 倍率 |
|---|---|
| 純英文白話文 | ~1.20x |
| 程式碼 | ~1.29–1.39x |
| 技術文件 / 繁中文字 | ~1.35–1.47x(第三方實測) |
程式碼受影響較大,因為 Byte-Pair Encoding 會把程式碼中的重複 pattern(import、關鍵字、變數名)合併成長 token,但新 Tokenizer 的拆法不同,反而讓這些被切得更細。

費用怎麼算?
定價公式沒變,變的是「token 總量」:
帳單 = Token 數量 × 定價
Token 數量多了,帳單就多了。幾個具體例子:

情境一:每天用 Coding Agent(100 萬 input + 20 萬 output)
- Opus 4.6:約 $300 / 月
- Opus 4.7(+35%):約 $405 / 月
- 每月多 $105
情境二:單次 Claude Code session
- Opus 4.6:約 $6.65
- Opus 4.7:約 $7.86–$8.76(多 20–30%)
情境三:一個 $0.10 的 API 請求
- 最好情況(1.0x):還是 $0.10
- 最壞情況(1.35x 官方 / 1.47x 實測):$0.135–$0.147
哪些情境受影響最大?
- 程式碼密集型任務:送大量程式碼當 context 給 Claude 分析或修改
- 繁中或多語混合內容:中文字的拆法也受影響
- 長 Agentic 任務:每一輪對話都帶入大量 context,token 倍率疊加明顯
影響最小的是純英文白話對話,倍率接近 1.20x。
怎麼控制費用?
- 調整
effort設定:用low或mediumeffort 而不是xhigh,減少 thinking token 的消耗 - 設定
task_budget:告訴模型「這個任務整個 loop 只能用 N 個 token」,讓模型自己節制 - 圖片降解析度:4.7 支援 3.75MP 高清圖,但高解析圖也吃更多 token,不需要就先降解析度再傳
- 更新
max_tokens參數:Anthropic 建議給多一點空間,避免請求因 token 超限被截斷 - 搭配 Batch API:非即時任務改用 Batch 可享 50% 折扣,部分抵消費用上漲
這樣還值得升 4.7 嗎?
視工作性質而定。如果你大量用到程式碼、圖片分析、或長 Agent 工作流,4.7 的能力提升(SWE-bench 從 53.4% 升到 64.3%、視覺準確率從 54.5% 升到 98.5%)可能讓你用更少的 retry 完成任務,反而省錢。
如果你主要做文字摘要或簡單問答,費用增加但能力提升有限,繼續用 4.6 或考慮 Sonnet 4.6 反而更划算。





