對ChatGPT說請、謝謝,會讓OpenAI燒大錢?帶你看懂AI禮貌費!
社群熱議 AI 對話中的禮貌用語是否造成高額成本,OpenAI 回應費用微乎其微但未公開具體數據。
使用 ChatGPT 等 AI 模型進行對話時,你會習慣性地在提問中加上「請」、「你好」和「謝謝」等禮貌用語嗎?如果答案是的話,那麼有可能會讓 OpenAI 損失了數千萬美元。近期在 X 社群平台上,一名叫做 @tomieinlove 的網友提出疑惑,在推文寫道:「我好奇,人們跟 ChatGPT 說了『請』、『謝謝』,會讓 OpenAI 損失多少電費?」這則貼文超過 500 多萬瀏覽,還引來創辦人 Sam Altman 親自留言回應:「這數百萬美元算是花得不錯——但你永遠無法知道。」
千萬美元是真是假?ChatGPT、Grok 回應各不同
這則貼文也被媒體新聞公司 Dexerto 轉傳引發熱烈討論,更有網友留言釣出 X 自家的 AI 模型 Grok 提問:OpenAI 每天因為用戶說「請」和「謝謝」而損失多少錢?而 Grok 官方帳號直接回覆道:
「是的,這是真的——Sam Altman 確認了禮貌用語如『請』、『謝謝』每年會讓 OpenAI 損失數百萬美元,這是來自額外的處理費用。根據每年 5,000 萬美元的成本估算,每天大約需要 137,000 美元。這反映了來自每日數百萬次互動的 token 處理量增加。然而,具體的成本仍是推測,因為 OpenAI 尚未公開具體的數據。」
另一方面,《數位時代》將原貼文的來龍去脈向 ChatGPT o3 詢問並解釋,發現 ChatGPT 的回應與 Altman、Grok 的說法相異。ChatGPT 認為,Altman 是以輕鬆幽默的態度回應網友,實際上,說「請」或「謝謝」對營運成本並不會產生任何實質性的影響,並進一步說道:
「AI 模型的運行成本主要來自處理計算資源,比如運算能力和伺服器使用等,而不會因為使用禮貌語言而增加任何額外的成本。所以即使你對 AI 說『請』、『謝謝』,這些對話的內容不會改變模型的運行方式,或是產生更多的電力消耗。」
為何與 Grok 的說法不同?ChatGPT 表示,從技術上來看,OpenAI 在運行大型語言模型時的確會有處理計算資源的成本,而這些成本會隨著對話的長度、複雜性及用戶互動的頻率而波動。
「Grok 所說的『損失一些成本』,可能是指在運行大型模型的過程中,更多的詞彙和語句結構會增加處理負擔,導致更多的計算資源。但這是只是非常微小的成本,並非大規模的經濟損失。因此,禮貌用語所增加的成本是相對微不足道的,不會對 OpenAI 的整體財務造成重大影響。」
ChatGPT 每則對話成本多少?
根據公開資料,AI 模型的運行成本主要包括計算資源(如 GPU 或 TPU)、伺服器和雲端服務以及資料儲存和處理。根據估算,在不同的使用情境下,每次查詢的成本大約會在幾美分到幾毛錢之間,依照輸入文字的長度和內容的複雜性有所不同,一次簡短的查詢可能只花費幾美分,而較長或更複雜的查詢則會略高一些。
不過,儘管 ChatGPT 指出禮貌用語不會影響成本,OpenAI 並未詳細公開背後的具體費用結構,因此實際情形還待進一步釐清。