亞馬遜云AWS推出新一代自研芯片和AI聊天機(jī)器人,加強(qiáng)與英偉達(dá)的合作

亞馬遜云計(jì)算業(yè)務(wù)AWS在本周二的年度大會(huì)re:Invent上發(fā)布了一系列新產(chǎn)品和服務(wù),展示了其在云計(jì)算和人工智能領(lǐng)域的創(chuàng)新能力和領(lǐng)先地位。AWS推出了新一代的通用芯片Graviton4和AI芯片Trainium2,以及基于生成式AI技術(shù)的聊天機(jī)器人Q。同時(shí),AWS還宣布了與英偉達(dá)的深入合作,將在云上部署英偉達(dá)的最新超級(jí)芯片Grace Hopper,提供更強(qiáng)大的AI計(jì)算能力和服務(wù)。

亞馬遜云AWS推出新一代自研芯片和AI聊天機(jī)器人,加強(qiáng)與英偉達(dá)的合作

Graviton4是AWS自研的第四代通用芯片,其計(jì)算性能較前代提高多達(dá)30%,內(nèi)核增加50%,內(nèi)存帶寬提升75%。Graviton4還通過對(duì)所有高速物理硬件接口進(jìn)行完全加密提高安全性。Graviton4將應(yīng)用于內(nèi)存優(yōu)化的Amazon EC2 R8g 實(shí)例,讓客戶能改進(jìn)高性能數(shù)據(jù)庫(kù)、內(nèi)存緩存和大數(shù)據(jù)分析工作負(fù)載的執(zhí)行。Graviton4的電腦將在未來數(shù)月內(nèi)上市。

Trainium2是AWS自研的第二代AI芯片,其速度比前代快四倍,將能在EC2 UltraCluster中部署多達(dá)10萬個(gè)芯片,讓用戶能在很短的時(shí)間內(nèi)訓(xùn)練數(shù)以萬億參數(shù)的基礎(chǔ)模型(PM)和大語(yǔ)言模型 (LLM),同時(shí)能源利用率較前代提高多達(dá)兩倍。Trainium2 將用于Amazon EC2 Trn2 實(shí)例,單個(gè)實(shí)例中包含16 個(gè)Trainium 芯片。Trn2 實(shí)例旨在幫助客戶在下一代 EC2 UltraCluster中擴(kuò)展芯片應(yīng)用數(shù)量至多達(dá)10萬個(gè)Trainium2 芯片,聯(lián)通AWS Elastic Fabric Adapter (EFA) petabit級(jí)網(wǎng)絡(luò),提供高達(dá) 65 exaflops 的算力。Trainium2將從明年開始用于支持新的服務(wù)。

Q是AWS推出的基于生成式AI技術(shù)的聊天機(jī)器人,可根據(jù)企業(yè)客戶的業(yè)務(wù)進(jìn)行工作,幫助企業(yè)客戶搜索信息、編寫代碼和審查業(yè)務(wù)指標(biāo)。Q接受了AWS內(nèi)部有關(guān)代碼和文檔的部分培訓(xùn),可供AWS云的開發(fā)者使用。開發(fā)者可以用Q在AWS上創(chuàng)建App、研究最佳實(shí)踐、改正錯(cuò)誤、獲得為App編寫新功能的幫助。用戶可以通過對(duì)話式的問答功能與Q進(jìn)行交互,學(xué)習(xí)新知識(shí)、研究最佳實(shí)踐以及了解如何在AWS上構(gòu)建App,無需將注意力從 AWS 控制臺(tái)上移開。Q還將被添加到亞馬遜的企業(yè)智能軟件、呼叫中心工作人員和物流管理的程序。Q 對(duì)話式問答功能目前在所有提供企業(yè)AWS的地區(qū)提供預(yù)覽版。

除了自研芯片和AI聊天機(jī)器人,AWS還與英偉達(dá)加強(qiáng)了戰(zhàn)略合作,將在云上部署英偉達(dá)的最新超級(jí)芯片Grace Hopper,提供更強(qiáng)大的AI計(jì)算能力和服務(wù)。Grace Hopper是英偉達(dá)的第三代數(shù)據(jù)中心GPU,其性能較前代提高了10倍,可支持萬億參數(shù)級(jí)的AI模型。AWS將成為第一家在云上采用全新多節(jié)點(diǎn)NVLink技術(shù)英偉達(dá)H200 Grace Hopper超級(jí)芯片的云服務(wù)商。英偉達(dá)的H200 NVL32 多節(jié)點(diǎn)平臺(tái)將 32 個(gè) Grace Hopper芯片與 NVLink 和 NVSwitch 技術(shù)共同用于一個(gè)實(shí)例。該平臺(tái)將用于與亞馬遜網(wǎng)絡(luò)EFA連接的Amazon EC2實(shí)例,并由高級(jí)虛擬化 (AWS Nitro System) 和超大規(guī)模集群 (Amazon EC2 UltraClusters) 提供支持,使亞馬遜和英偉達(dá)共同的客戶能夠擴(kuò)展部署數(shù)以千計(jì)的H200芯片。

英偉達(dá)和AWS還將共同在AWS上托管英偉達(dá)的AI 訓(xùn)練即服務(wù)DGX Cloud,它將是第一個(gè)采用GH200 NVL32 的 DGX 云,能為開發(fā)人員提供單個(gè)實(shí)例中最大的共享內(nèi)存。AWS 的DGX云將提高尖端生成式AI 和超過1萬億參數(shù)的大語(yǔ)言模型的訓(xùn)練。此外,英偉達(dá)和AWS 正在共同研發(fā)名為Ceiba 的項(xiàng)目,設(shè)計(jì)世界上速度最快的GPU驅(qū)動(dòng)AI 超級(jí)計(jì)算機(jī),這是一個(gè)采用 GH200 NVL32 和 Amazon EFA 互連的大規(guī)模系統(tǒng)。它是搭載1.6384萬塊GH200超級(jí)芯片的超級(jí)計(jì)算機(jī) ,AI處理能力達(dá)65 exaflops。英偉達(dá)將用它推動(dòng)下一波生成式AI 創(chuàng)新。

AWS的副總裁Dave Brown表示,通過將自研芯片的設(shè)計(jì)重點(diǎn)放在對(duì)客戶重要的實(shí)際工作負(fù)載上,AWS能為他們提供最先進(jìn)的云基礎(chǔ)設(shè)施。他還表示,AWS和英偉達(dá)的合作將為客戶提供更多的選擇和靈活性,讓他們能夠利用最新的AI技術(shù)來解決最復(fù)雜的問題。拼多多的創(chuàng)始人兼CEO黃崢在財(cái)報(bào)發(fā)布后表示:“我們很高興看到我們的業(yè)績(jī)持續(xù)強(qiáng)勁增長(zhǎng),反映了我們的平臺(tái)的吸引力和活力。我們將繼續(xù)專注于為我們的用戶提供更多的價(jià)值和更好的體驗(yàn),同時(shí)為我們的商家和品牌提供更多的機(jī)會(huì)和支持。我們相信,通過不斷地創(chuàng)新和改進(jìn),我們將能夠?qū)崿F(xiàn)我們的愿景,讓農(nóng)民和消費(fèi)者直接受益,讓電商更加普惠和可持續(xù)。”

原創(chuàng)文章,作者:商業(yè)頭條,如若轉(zhuǎn)載,請(qǐng)注明出處:http://leeannwhittemore.com/article/599843.html

商業(yè)頭條的頭像商業(yè)頭條認(rèn)證作者

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評(píng)論