谷歌遭遇AIGC新難題:使用成本是傳統(tǒng)搜索的10倍

2023-02-23 11:30:56   來源:新浪科技   評論:0   [收藏]   [評論]
導讀:  新浪科技訊 北京時間2月23日上午消息,據報道,不久前,Alphabet在演示聊天機器人(10 620, -0 09, -0 84%)時出現(xiàn)的失誤剛剛導致其市值蒸發(fā)1000億美元,現(xiàn)在,在谷歌搜索中整合生成式人工智能的計劃又要面
  新浪科技訊 北京時間2月23日上午消息,據報道,不久前,Alphabet在演示聊天機器人(10.620, -0.09, -0.84%)時出現(xiàn)的失誤剛剛導致其市值蒸發(fā)1000億美元,現(xiàn)在,在谷歌搜索中整合生成式人工智能的計劃又要面臨新的挑戰(zhàn):成本!

  當整個科技行業(yè)的高管都在討論如何運營ChatGPT這樣的人工智能服務時,高昂的費用卻成為他們不得不面對的一個難題。這款由OpenAI開發(fā)的熱門聊天機器人可以針對用戶提出的問題直接給出答案,但該公司CEO山姆·阿爾特(13.960, -0.13, -0.92%)曼(Sam Altman)卻在Twitter上透露,這項服務的成本高得讓人難以接受——每次對話的計算成本達到2美分甚至更多。

  Alphabet董事長約翰·漢尼斯(John Hennessy)表示,與大語言模型這樣的人工智能對話,其成本是傳統(tǒng)搜索的10倍,但通過一些調整措施有助于迅速降低成本。

  分析師認為,即便可以通過基于聊天的搜索廣告創(chuàng)造收入,但由于這項技術會額外帶來數十億美元的成本,因而還是會對Alphabet的凈利潤產生不利影響。該公司2022年的凈利潤接近600億美元。

  摩根士丹利估計,谷歌去年總計3.3萬億次的搜索量單次平均成本約為0.2美分。這一成本今后將會上漲,具體取決于人工智能貢獻的內容比例。例如,分析師測算,如果類ChatGPT人工智能能用50字的答案處理其收到的半數請求,谷歌的費用到2024年可能會增加60億美元。谷歌不太可能用聊天機器人來為維基百科等網站處理導航搜索。

  其他分析師也得出了類似的結論。例如,專注于芯片技術的搜索和咨詢公司SemiAnalysis就表示,將類ChatGPT人工智能技術整合到搜索中可能花費Alphabet 30億美元,由于谷歌使用了自主研發(fā)的TPU芯片及其他優(yōu)化措施,可以在一定程度上降低這項成本。

  AIGC的成本之所以高于傳統(tǒng)搜索,主要原因在于算例消耗。分析師表示,這種人工智能技術需要依靠數十億美元的芯片,即使將這項成本平攤到幾年的使用周期中,仍會顯著增加單次使用成本。電力消耗也會增加成本,同時對企業(yè)的碳足跡目標構成壓力。

  處理人工智能搜索請求的過程被稱作“推理”(inference),它通過神經網絡來大致模擬人腦的生物結構,借助之前的訓練數據推理出問題答案。

  而在傳統(tǒng)搜索中,谷歌的網絡爬蟲會掃描互聯(lián)網,并匯總一個信息索引。當用戶輸入搜索請求時,谷歌就會提供存儲在索引中最相關的答案。

  盡管面臨成本壓力,但Alphabet的漢尼斯依然要接受這一項挑戰(zhàn)。本月早些時候,谷歌的老對手微軟在其雷蒙德總部舉行了高調的發(fā)布會,展示了嵌入在必應搜索引擎中的人工智能聊天技術。據估計,微軟的高管瞄準了谷歌91%的搜索市場份額。

  一天后,Alphabet也在發(fā)布會上探討了如何改善其搜索引擎,但一段關于人工智能聊天機器人Bard的推廣視頻卻顯示,系統(tǒng)給出了錯誤的答案。受此影響,谷歌股價暴跌,市值蒸發(fā)1000億美元。

  隨后有報道稱,微軟的人工智能威脅用戶,甚至向測試者示愛,這使得外界也加大了對微軟的關注。由于擔心“誘發(fā)”意想不到的答案,微軟也開始限制用戶的聊天次數。

  微軟CFO艾米·胡德(Amy Hood)曾經對分析師表示,獲取用戶和廣告收入帶來的好處超過了將新必應提供給數百萬用戶產生的成本。“即便要增加成本,但這對我們來說仍是增量毛利潤。”她說。

  作為谷歌的另外一個競爭對手,搜索引擎You.com的CEO理查德·索赫爾(Richard Socher)表示,為圖片、視頻和其他生成式技術引入人工智能聊天體驗和應用會將成本提高30%至50%。“隨著規(guī)模擴大和時間推移,技術成本會降低。”他說。

  接近谷歌的知情人士警告稱,現(xiàn)在就對聊天機器人的具體成本下判斷還為時尚早,因為效率和使用量會隨著其中涉及的技術而存在很大差異,而且人工智能也已經為搜索等產品提供支持。

  不過,埃森哲CTO保羅·多爾蒂(Paul Daugherty)認為,擁有數十億用戶的搜索引擎和社交媒體巨頭之所以沒有在一夜之間推出人工智能聊天機器人,成本確實是兩大主要原因之一。

  “一是準確性,二是必須以合適的方式擴大規(guī)模。”他說。

  權衡成本

  多年以來,Alphabet等公司的研究人員一直都在研究如何以更低的成本訓練和運行大語言模型。

  更大的模型需要更多的芯片來完成推理,自然會推高成本。人工智能在達到以假亂真的效果的同時,其規(guī)模也在快速膨脹。例如,OpenAI在ChatGPT的新模型中使用了1750億個參數,即算法需要考慮的不同值。成本也會因為用戶請求的長短而存在差異,具體長度以“令牌”或文字數來衡量。

  一位資深技術高管透露,要讓數百萬用戶使用這樣的人工智能技術,目前仍需承擔極高的成本。

  這位要求匿名的高管說:“這些模型的成本很高,所以下一階段的目標是降低模型的訓練和推理成本,以便將其應用到每一個應用中。”

  知情人士透露,OpenAI的計算機科學家已經找到了通過復雜的代碼來優(yōu)化成本的方法,從而提高芯片的效率。但OpenAI發(fā)言人尚未對此置評。

  如果把眼光放得更長遠一些,如何在不犧牲準確性的情況下,將人工智能模型的參數數量縮減到目前的十分之一甚至百分之一,也是一個重要問題。

  “怎樣才能以最有效的方式減少參數,這個問題仍然有待解答。”納維尼·拉奧(Naveen Rao)說。他曾經負責英特爾的人工智能芯片業(yè)務,目前通過他的創(chuàng)業(yè)公司MosaicML來降低人工智能計算成本。

  與此同時,一些企業(yè)已經開始嘗試收費模式,比如OpenAI就為每月支付20美元費用的用戶提供更好的使用體驗。技術專家還表示,可以使用規(guī)模較小的人工智能模型來執(zhí)行較為簡單的任務,谷歌目前就在探索這種變通模式。

  該公司本月表示,他們將會采用LaMDA大型人工智能技術的小規(guī)模版本來為Bard聊天機器人提供支持,“大幅減少算例需求,使我們能夠服務更多用戶。”

  在上周的TechSurge大會上被問及相關問題時,漢尼斯表示,開發(fā)更加專注的模型,而不是無所不能的服務,將有助于“控制成本”。

分享到:
責任編輯:zsz

網友評論