亞馬遜推出用于人工智能部署的AWS Inferentia芯片
亞馬遜宣布推出Inferentia,這是由AWS設計的芯片,專門用于部署帶有GPU的大型AI模型,該芯片將于明年推出。
Inferentia將與TensorFlow和PyTorch等主要框架協(xié)同工作,并與EC2實例類型和亞馬遜的機器學習服務SageMaker兼容。
“你將能夠在每個芯片上獲得數(shù)百個TOPS; 如果你愿意的話,你可以將它們捆綁在一起以獲得數(shù)千個TOPS,“AWS首席執(zhí)行官Andy Jassy今天在年度re:Invent會議上表示。
Inferentia還將與Elastic Inference合作,這是一種加速使用GPU芯片部署AI的方法,這也是今天宣布的。
彈性推理適用于1到32 teraflops的數(shù)據(jù)范圍。Inferentia檢測主要框架何時與EC2實例一起使用,然后查看神經(jīng)網(wǎng)絡的哪些部分將從加速中受益最多; 然后將這些部分移動到彈性推理以提高效率。
Jassy說,今天推出AI模型所需的兩個主要流程是培訓和推理,推理占了近90%的成本。
“我們認為運營成本可以通過Elastic Inference節(jié)省75%的成本,如果你將Inferentia放在其上,這是成本的另一個10倍的提升,所以這是一個重大的改變游戲規(guī)則,這兩個推出推斷我們的客戶,“他說。
Inferentia的發(fā)布是在周一首次亮相的一款芯片之后由AWS專門用于執(zhí)行通用工作流程。
Inferentia和Elastic Inference的首次亮相是今天發(fā)布的幾個AI相關公告之一。今天還宣布:推出AWS市場,供開發(fā)人員銷售他們的AI模型,以及DeepRacer League和AWS DeepRacer汽車的推出,該 汽車在模擬環(huán)境中使用強化學習訓練的AI模型上運行。
今天預覽中還提供了許多不需要預先知道如何構建或訓練AI模型的服務,包括Textract用于從文檔中提取文本,Personalize用于客戶建議,以及Amazon Forecast,這是一種生成私有預測模型的服務。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術創(chuàng)新應用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
-
8月5日立即報名>> 【在線會議】CAE優(yōu)化設計:醫(yī)療器械設計的應用案例與方案解析
推薦專題