Exclusive: Microsoft To Shift GitHub Copilot Users To Token-Based Billing, Tighten Rate Limits
Copilot 營運成本自一月翻倍,微軟暫停新註冊並全面轉向代幣計費。
- 成本自一月翻倍,微軟全面暫停 Copilot 個人與學生版註冊。
- 捨棄單次請求,全面轉向代幣計費,終結 AI 算力無上限補貼時代。
- Pro 方案將移除 Opus 模型,且 Opus 4.7 請求乘數高達 7.5 倍。
微軟機密文件揭露,自一月以來 GitHub Copilot 的每週營運成本已驚人地翻倍。為控制算力開銷,微軟將暫停個人版與學生版註冊,並將計費模式轉向反映真實成本的代幣計費,宣告無上限補貼 AI 算力的時代正式結束。
自一月成本翻倍:微軟暫停 Copilot 新註冊
根據科技媒體《Where’s Your Ed At》取得的微軟外洩內部文件,微軟目前面臨嚴峻的 AI 基礎設施成本壓力。文件明確指出,雖然推動「代幣計費(Token-based billing,依據模型實際處理文字的基本單位來計價)」一直是微軟的優先事項,但這項任務在過去幾個月內變得極度急迫。主因在於維持 GitHub Copilot 運作的每週成本,自今年一月以來已經暴增將近一倍。為了遏止虧損持續擴大,微軟計畫全面按下新用戶註冊的暫停鍵。
受到此次凍結註冊影響的範圍,主要集中在個人開發者市場。目前 GitHub Copilot 提供兩種個人付費方案:每月 10 美元的 GitHub Copilot Pro,以及每月 39 美元的 GitHub Copilot Pro+。外洩文件證實,這兩種付費層級的新註冊都將被暫停。此外,包含在免費 GitHub Education 教育包中的 GitHub Copilot Student 學生版產品,也將同步面臨暫停服務的命運。這項決策凸顯了在龐大的開發者使用量下,即便是有付費的個人用戶,其訂閱費也已經無法涵蓋微軟在後端所付出的巨額伺服器運算成本。
捨棄單次請求:Copilot 全面轉向代幣計費
目前 GitHub Copilot 用戶的計量方式是基於「請求(Requests)」,也就是使用者要求模型執行一次任務的單次互動。在現行制度下,每月 10 美元的 Pro 帳戶擁有 300 次請求額度,而每月 39 美元的 Pro+ 則享有 1500 次請求。這種計價方式對使用者來說相對直觀,但卻隱藏了巨大的算力成本落差。不同模型的運算負載完全不同,長篇幅的程式碼生成與簡單的語法補全,在後端消耗的資源天差地遠。
未來轉向代幣計費後,用戶將不再依照請求次數扣除額度,而是根據提示詞(Prompt)實際消耗的代幣來付費。舉例來說,文件中提到的 Claude Opus 4.7 模型,其輸入代幣(使用者餵給系統的資訊)成本為每百萬代幣 5 美元,而輸出代幣(模型生成的內容,包含大型語言模型進行思維鏈推理的消耗)成本則高達每百萬代幣 25 美元。這項轉變反映了當前 AI 產品營運的財務現實。
包含 Anthropic、OpenAI、Cursor 以及微軟在內的所有 AI 基礎設施公司,過去都在大量「補貼」算力成本,讓使用者燃燒的代幣價值遠遠超過他們支付的月租費。如今補貼派對即將落幕,微軟的舉措與 Anthropic 近期將企業用戶轉向代幣計費以降低成本的策略方向完全一致。
剔除 Opus 高階模型:每月 10 美元方案縮水
除了改變計費的底層邏輯,微軟也正準備針對現有帳戶實施更嚴格的使用限制。內部文件指出,微軟計畫全面收緊部分 Copilot Business 商業版與 Enterprise 企業版方案的速率限制(Rate limits)。對於過去已經經歷過一波額度縮水的個人版方案,未來的限制將會進一步加劇。此外,為了避免系統資源被惡意消耗,微軟也將暫停個人付費方案的試用期。
儘管微軟才剛在四月初微調過個人帳戶的速率限制,但文件坦言這些改變仍不足以止血,未來幾週內將會有更多限制措施上路。作為這場成本削減計畫的核心步驟,微軟打算從每月 10 美元的 GitHub Copilot Pro 套餐中,徹底移除 Anthropic 的 Opus 系列高階 AI 模型。此舉意味著最便宜的訂閱方案用戶,未來將無法再存取這些高算力消耗的頂級模型。
事實上,微軟在四月初就已經對 GitHub Copilot Pro+ 用戶下架了 Opus 4.6 Fast 模型,當時官方的說法是為了「進一步提升服務可靠性」並「精簡模型選項,將資源集中在用戶最常使用的模型上」。而接下來幾週內,包含 Opus 4.6 與 Opus 4.5 等其他模型也將被陸續移除,為系統全面轉向 Anthropic 最新的 Opus 4.7 模型做準備。
乘數高達 7.5 倍:Opus 4.7 算力成本解析
在過渡到純代幣計費的過程中,微軟依賴一套稱為「進階請求乘數(Premium request multipliers)」的機制,來反映不同模型之間的算力成本差異。需要龐大算力的大型語言模型(LLM,處理龐大文本資料的 AI 系統),其請求乘數會遠高於輕量級模型。隨著微軟將主力轉移至 Opus 4.7,用戶將會發現他們的額度消耗得比以往更快。
根據文件內容,微軟目前針對 Opus 4.7 提供一個「7.5 倍」的請求乘數優惠,效期至 4 月 30 日(優惠結束後的倍率尚不清楚)。這聽起來像是某種福利,但實際上代表:用戶每次呼叫 Opus 4.7 模型,系統就會直接扣除 7.5 次的請求額度。國外 Reddit 討論區的開發者們已經敏銳地察覺到這個機制的殺傷力,並對此感到相當擔憂。
若對比其他模型的乘數,就能清楚看出微軟的成本防線設定:例如較輕量的 GPT-5.4 Mini 模型,其請求乘數僅為 0.33(即每次提示只算作三分之一個進階請求);而已經退役的 Claude Opus 4.6 Fast 乘數曾高達驚人的 30 倍。至於標準版的 Claude Opus 4.6 乘數為 3。這意味著,即便在目前的促銷定價下,使用最新的 Claude Opus 4.7 仍然比舊版標準模型貴上大約 250%。這些排定於本週陸續公布的變更,不僅將重塑開發者的程式碼編寫習慣,也正式宣告生成式 AI 應用進入了必須精算成本的新階段。
代幣計費機制的導入,宣告 AI 算力無限補貼時代正式落幕,開發者未來必須精確控制提示詞成本。
補充數據視覺化
| AI 模型名稱 | 進階請求乘數 (Multiplier) |
|---|---|
| GPT-5.4 Mini | 0.33 倍 |
| Claude Opus 4.6 (標準版) | 3 倍 |
| Claude Opus 4.7 (促銷期優惠) | 7.5 倍 |
| Claude Opus 4.6 Fast (已退役) | 30 倍 |