競爭對手押注大模型,亞馬遜云科技全球高管如何看待云上新競爭?
2022年底,由美國初創(chuàng)企業(yè)OpenAI開發(fā)的聊天應用ChatGPT引爆市場,生成式AI成為科技市場熱點,,ChatGPT背后是深度學習大模型,其理解和生成文字的能力超過以往AI產(chǎn)品。全球主要云計算公司加入其中,爭奪算力、下場開發(fā)和銷售大模型,云計算市場迎來新一輪競爭熱潮,覆蓋AI計算所需的算力、算法、數(shù)據(jù)各層面。
作為全球云計算“一哥”,亞馬遜云科技(AWS)亦不能在此輪競爭中落于下風,將機會讓與對手。近日,亞馬遜云科技全球產(chǎn)品副總裁Matt Wood在上海接受界面新聞等采訪時表示,與競爭對手把自研大模型直接落地到云服務上不同,亞馬遜云科技積極與第三方合作伙伴合作,使用第三方生成式AI模型,包括Anthropic、AI21Labs和Stability AI等。此外,公司還自研預訓練Amazon Titan基礎模型,客戶可以根據(jù)自身需求,在基礎模型上使用自身數(shù)據(jù),搭建自有模型。這也意味著,亞馬遜云科技在把云服務從模型生產(chǎn)端拓展至模型使用端歷程中,賦予客戶更多選擇,絕非單打獨斗。
Matt Wood擁有機器學習和生物信息學博士學位,為亞馬遜云科技早期員工,最早任職亞馬遜云科技歐洲,隨后于2010年在西雅圖亞馬遜云科技總部擔任全球副總裁至今,負責公司機器學習和大數(shù)據(jù)等產(chǎn)品,包括無服務器計算服務AWS Lambda、流式數(shù)據(jù)處理平臺Amazon Kinesis等。
“一種模型并不能決定一切?!盡att Wood稱,從應用上來看,他認為企業(yè)不必急于綁定一家大模型,不能依賴一個萬能的、單一的大型語言模型應對各種任務,“我們認為正確的做法應該是:客戶可以訪問多個模型,然后根據(jù)自己的需求和數(shù)據(jù)來定制自己的模型。即在大模型基礎之上,確保以私密和安全的方式讓用戶能夠定制自己的模型?!?/span>
自ChatGPT爆火出圈后,微軟、谷歌分別先行公布AI對話機器人爭搶用戶,隨后跟隨兩者又將大模型用在企業(yè)端,開辟云計算新戰(zhàn)場。在其他云廠商種種關于AIGC領域的積極行動下,亞馬遜云科技似乎仍顯“保守”:一方面其生成式AI產(chǎn)品開放程度有限,企業(yè)客戶難以充分評估;另一方面,仍少有企業(yè)領域“標桿客戶”對其AIGC服務進行推薦,使得亞馬遜云科技在本輪AI競賽中,聲量遠遜于對手。

對此,Matt Wood解釋稱,就生成式AI而言,行業(yè)目前還處在一個非常初期的階段?!吧墒紸I的發(fā)展就像一場馬拉松比賽,當比賽剛剛開始時,如果只跑了三四步就斷言某某某會贏得這場比賽,這顯然是不科學的。這是一場長期的競爭,是一場長跑?!彼Q,“我們現(xiàn)在還處于非常早期的階段,要拭目以待?!?/span>
4月13日,亞馬遜云科技發(fā)布了自研大模型Titan,包括了Text和Embeddings兩個大語言模型(LLM),分別負責文字處理和用于機器學習的表征向量轉化,亞馬遜并未公布這兩個大語言模型參數(shù)規(guī)模。而AI云服務Amazon Bedrock使得用戶可以通過API來調(diào)用Titan和第三方模型,包括了創(chuàng)業(yè)公司AI21 Labs、Anthropic、Stability Ai的基礎模型。
此外,亞馬遜還宣布全面開放AI代碼輔助工具CodeWhisperer,對個人開發(fā)者免費,AI可以幫助程序員生成大量的無差異代碼,從而提高開發(fā)效率。亞馬遜稱,使用該服務的開發(fā)者效率提高了57%,成功完成任務的可能性高了27%。該服務目前支持包括了Python、Java和C+等多種計算機語言。
大模型生產(chǎn)門檻極高,在大模型快速迭代、AIGC落地場景已能明顯提升效率的情況下,企業(yè)客戶存在接入大模型服務優(yōu)化業(yè)務的需求。Matt Wood稱,諸多行業(yè)模型現(xiàn)在在亞馬遜云科技的平臺之上進行訓練,如彭博社的金融領域500億參數(shù)大模型“BloombergGPT”,他認為,這一模式也適用于其他客戶,后者根據(jù)自己行業(yè)來選擇相應基礎模型,然后對模型進行訓練。此外,客戶還會根據(jù)自身情況來補充添加獨有、私有信息,從而使模型的輸出結果和自身需求高度相關。
Matt Wood預計,基于Amazon Bedrock的合作趨勢,將會有越來越多的第三方模型出現(xiàn),其中既有自有的第三方模型,也包括開源模型。同時,亞馬遜云科技也會提供多個Amazon Titan的模型可供客戶選擇。他還強調(diào),公司將不會把Amazon Bedrock做成類似應用商店的模型市場,而是精選出最優(yōu)的模型,保證其低時延、高運維性能等特點。
算力方面,除英偉達GPU,亞馬遜云科技亦有自研AI芯片布局,其中成本是該公司向外界傳達其自研AI芯片優(yōu)勢的重點。此前,亞馬遜發(fā)布了基于自研的AI訓練芯片Trainium和推理芯片Inferentia2的算力基礎設施,亞馬遜稱采用了Trainium的云服務器將大模型訓練成本降低了50%,最多可以將30000個Trainium芯片連接起來提供超過6 exaflops的算力集群,連接帶寬可高達1600Gbps,與之相較目前AI服務器之間連接帶寬最高水平約為3200Gbps;推理方面,亞馬遜稱Inferentia2針對大模型推理進行優(yōu)化,將推理的性價比提高了40%。
面向AIGC和大模型訓練,已經(jīng)是大型芯片公司競爭的焦點,今年初以來,英偉達和AMD均針對生成式AI的生成式AI負載優(yōu)化的芯片產(chǎn)品,亞馬遜云科技如何持續(xù)獲得云端的性能和成本的優(yōu)勢?Matt Wood告訴界面新聞,芯片僅是整個AI圖景的一部分:一方面,客戶可以在亞馬遜云科技的云上使用英偉達等公司的芯片;另一方面,自研AI訓練芯片Trainium在網(wǎng)絡互聯(lián)等領域仍有顯著優(yōu)勢,并降低了成本,如基于Trainium的云端實例Trn1n,能夠讓用戶來訓練非常非常大型的語言模型,并且成本降低了20%。
本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。
免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com

