
智東西(公眾號:zhidxcom)
作者 | ZeR0 程茜
編輯 | 漠影
全球最大云計算巨頭,今日掏出(chu)硬(ying)核家底!
智東西12月3日拉斯維加斯報道,在年度云計算產業盛會AWS re:Invent大會上,AWS(亞馬遜云科技)一口氣發布6款大模型、預告2款大模型,還推出3nm第三代AI訓練芯片Trainum3及其迄今最強AI服務器Trn2 UltraServer。
這是Amazon Nova系列基礎模型首次亮牌。
包括Micro、Lite、Pro、Premier四個版本的語言模型,還有圖像生成模型Canvas、視頻生成模型Reel。其中Reel現支持生成6秒視頻,很快將會延長到2分鐘。
亞馬遜總裁兼CEO安迪·賈西現場劇透:明年,AWS不僅將發布語音轉語音模型,還有更高能的任意轉任意(Any-to-Any)模型——能輸入和輸出文本、圖像、音頻、視頻等任何模態的內容。
這些(xie)模(mo)型(xing)均在Bedrock中提供,可微調和蒸(zheng)餾。
此外,AWS CEO馬特·加曼宣布推出最新生成式AI實例Amazon EC2 Trn2,比當前基(ji)于GPU的(de)EC2實例的(de)性(xing)價比高出30%~40%。
蘋果機器學習和人工智能高級總監Benoit Dupin來到現場(chang),稱蘋(pin)果(guo)在(zai)iPad、Apple Music、Apple TV、新聞(wen)、App Store、Siri等產品和服務上(shang)廣泛使(shi)用了亞馬遜(xun)服務。
他特別分享道,與x86實例相比,蘋果已用Amazon Graviton、Inferentia等AWS芯片在機器學習推理工作負載方面實現了40%以上的效率提升,并預(yu)計在Trainium 2上預(yu)訓(xun)練模型時,效(xiao)率(lv)將提高50%。
被亞(ya)馬遜豪擲80億美元(yuan)投資的Anthropic,宣布(bu)與(yu)AWS共同(tong)構建面向機器(qi)學習訓(xun)練的世(shi)界最大計算集群(qun),其下一代Claude大模型將在擁(yong)有數十(shi)萬顆Trainium2芯片(pian)的集群(qun)上進行訓(xun)練。
總體來看(kan),AWS的計算、存儲(chu)、數據庫、AI推理,四大板塊都(dou)迎來一大波重(zhong)要更(geng)新(xin)。
一、全新自研大模型Amazon Nova系列登場!文本、圖像、視頻齊活了
亞馬遜總(zong)裁兼CEO安迪·賈西現場(chang)分享了生成式AI如(ru)何(he)貫(guan)穿(chuan)亞馬遜不同業(ye)務,包括改善了電商客服(fu)(fu)、賣家詳情頁創建、庫存管理(li)、機器人、Alexa、Amazon Lens、線上(shang)購物衣服(fu)(fu)尺碼匹配、Prime Video等的效率和體驗。
然后,他公布全新大模型系列——Amazon Nova!
Nova語言模型有四款:
(1)Micro:純(chun)文(wen)本模型,128k上下文(wen)窗口,延遲最低(di),響(xiang)應(ying)速(su)度(du)最快(kuai)。
(2)Lite:成本很低的多模態模型,300k上下文(wen)窗(chuang)口,可(ke)快速處(chu)理圖(tu)像、視頻和(he)文(wen)本輸入。
(3)Pro:多(duo)模態模型,300k上(shang)下文窗口,兼顧準確度、速度和成本,能進(jin)行視頻(pin)理解、生成創意素材。
(4)Premier:亞馬遜功能最(zui)強(qiang)的(de)多(duo)模(mo)態模(mo)型(xing),可用于執行復(fu)雜的(de)推理任(ren)務,并(bing)可用作(zuo)蒸餾自定義(yi)模(mo)型(xing)的(de)最(zui)佳老師(將于2025年(nian)第一季度推出)。
據介紹,Micro、Lite和Pro的價格至少比Amazon Bedrock中各自智能類別中性能最佳的模型便宜75%。它們(men)也是(shi)Amazon Bedrock中各自智能類別(bie)中速度最(zui)快(kuai)的模型。
AWS稱(cheng)到2025年(nian)初(chu),某些Nova模型的上下文窗口將擴展以支持超(chao)過200萬個token。
在基(ji)準測試中,Micro版整體(ti)性(xing)能超過Gemini 1.5 Flash 8B和(he)Llama 3.1 8B。
Lite在(zai)處理輕量級任務時是最低成本的多模(mo)態模(mo)型。
新發布的另外兩個Nova模型是圖形生成模型Canvas和視頻生成模型Reel,可用于(yu)提(ti)升(sheng)宣(xuan)傳廣告(gao)的創(chuang)意。
Canvas支持生成和編輯圖像,提供配色方案和布局控件,并內置有安全控件,用于可追溯性(xing)的水印和用于限(xian)制有害(hai)內(nei)容生成(cheng)的內(nei)容審核(he)。
Reel可根據關鍵詞或可選的參考圖像生成6秒視頻,支持用戶調整攝像機運動以生成具有平移、360度旋轉和縮放的視頻。可制作2分鐘視頻的版本即將(jiang)推出。
▲用Amazon Nova Reel創作的(de)視頻示例
這(zhe)些模型支持自定義微調和蒸餾。
還有One More Thing:
AWS將在明年推出另外兩款Nova模型,一款是“語音轉語音”模型;另一款是“任意轉任意”多模態模型,其輸入和輸出可以是文本、圖像、音頻或視頻,也就是能用同一個模型執行各種任務。
除(chu)了(le)發布自研模(mo)型(xing),AWS也公布了(le)跟Anthropic的合作新進(jin)展(zhan)。
AWS與Anthropic合作推出了Claude 3.5 Haiku延遲優化版,將推理速度提高60%。
客戶只(zhi)需打開API的開關,請求(qiu)就會被發到新的Trainium2服務器上(shang)。
Amazon Bedrock提供的延遲優化選項,支持客戶訪問其最新AI硬件和其他軟件優化,以獲得模型的最佳推理性能。除了Claude模型外,還包括Llama 405B和較小的Llama 270B模型,處理請求和生(sheng)成相應的總(zong)耗時(shi)比其(qi)他(ta)產品低得多。
二、AWS Trainium2實例全面推出,發布第三代AI訓練芯片、最強AI服務器
AWS全面推出由Trainium2芯片驅動的Amazon EC2 Trn2實例,相比當前基于GPU的EC2實例,性價比高出30%~40%。
全新Amazon EC2 Trn2實例專為包括大語言模(mo)型(xing)(xing)和(he)潛(qian)在擴散(san)模(mo)型(xing)(xing)在內的生成式AI高性能(neng)深度學習訓練而構建。
其AI硬件全家桶也哐哐上新,推出第三代自研AI訓練芯片Trainium3,還發布了其史上最強AI服務器Trn2 UltraServer。
1、第三代自研AI訓練芯片
AWS發布了新一代AI訓練芯片Trainium3。這是首款采用3nm工藝節點制造的AWS芯片,能效提高40%、性能翻倍提升。
搭載Trainium3的UltraServer性能預計將比Trn2 UltraServer高出4倍。首批基于Trainium3的實例預計將于2025年底上市。
2、最強AI服務器,64顆Trainium2合體
AWS發布其史上最強AI服務器AWS Trn2 UltraServer,能支撐萬億參數AI模型的實時推理性能。
全新Trn2 UltraServer使用超(chao)高速NeuronLink互連,將(jiang)4臺Trn2服務器連接在一起,形成1臺巨型服務器,實現更快的大模型訓練和(he)推(tui)理。
單個Trn2實例結合了16顆Trainium2芯片,可提供20.8PFLOPS,適合訓練和部署有數十億個參數的大語言模型。
全新EC2產品Trn2 UltraServer則將64顆Trainium2芯片互連,可提供相比當前EC2 AI服務器多達5倍的算力和10倍的內存,將FP8峰值算力擴展到83.2PFLOPS(單個實例(li)的(de)4倍)。
AWS已與Adobe、AI軟件開(kai)發平臺Poolside、數據分析平臺Databricks、高通等幾個早期(qi)客戶進行了Beta測試培訓(xun)。
3、與Anthropic擴大合作,要建全球最大AI計算集群
美(mei)國AI大(da)模型(xing)獨角獸(shou)Anthropic的聯(lian)合創始人兼CTO Tom Brown現場分享說(shuo),就(jiu)像俄羅斯方塊(kuai)游戲(xi),機器(qi)內部構造越(yue)(yue)緊密(mi),跑(pao)模型(xing)就(jiu)越(yue)(yue)便宜越(yue)(yue)快。一(yi)年多來,Anthropic性能工程(cheng)團(tuan)隊(dui)(dui)與亞馬遜和Annapurna團(tuan)隊(dui)(dui)密(mi)切合作,應對(dui)這一(yi)挑(tiao)戰。
他宣布AWS與Anthropic正合作構建一個名為Project Rainier的Trn2 UltraServers EC2 UltraCluster,它將在數十萬顆Trainium2芯片上擴展分布式模型訓練。
這些芯片與第三代低延遲PB級EFA網絡互連,是Anthropic用于訓練其當前一代領先AI模型的百億億次浮點運算數量的5倍多。
建成后,預計它將成為迄今世界上最大的AI計算集群,可供Anthropic構建和部署(shu)其(qi)未來(lai)模型。
使(shi)用Project Rainer后,用戶將能夠以更低(di)價格(ge)、更快速(su)度獲得更多智能、更聰明的Agent。
4、新一代AI網絡結構tnp10
為Trainium2 UltraServer提供動力的是最新一代AI網絡結構tnp10。AWS在基于Trainium和NVIDIA芯片(pian)的集(ji)群(qun)都使(shi)用了這個網絡(luo)。它(ta)能在10微秒(miao)延(yan)遲(chi)下為數千臺(tai)服務(wu)器提供數十PB網絡(luo)容量,實(shi)現了AWS迄今擴(kuo)展(zhan)速(su)度最快(kuai)的網絡(luo)。
Tnp10網絡(luo)的大規模并行(xing)、緊密互聯(lian)和彈性的,可縮小到(dao)幾個(ge)機架(jia),也可以將其擴展到(dao)跨越多個(ge)物理數據中心園區的集(ji)群。
AI網絡中(zhong)的(de)最(zui)大故障(zhang)來源是光鏈路(lu)。多年來,AWS一直(zhi)在(zai)設計(ji)(ji)和(he)運行自(zi)家定制光學系統,以(yi)持續(xu)降低(di)故障(zhang)率。為了(le)進一步(bu)優化(hua)網絡,AWS在(zai)tnp10網絡中(zhong)建立了(le)一個(ge)全新(xin)的(de)網絡路(lu)由(you)協議“可(ke)擴(kuo)展意圖驅動路(lu)由(you)(CIDR)”,通過分散的(de)速度(du)和(he)彈性提供了(le)集中(zhong)的(de)計(ji)(ji)劃、控制和(he)優化(hua)。
三、生成式AI平臺Bedrock服務三大更新:自動推理檢查、多Agent協同、模型蒸餾
AWS Bedrock服務可幫助企業構建和擴展生成式AI應用程序,今天公布關于自動(dong)推理檢查(cha)、多(duo)agent協作、模(mo)型(xing)蒸餾(liu)的新功能。
AWS將Bedrock標榜為“構建生成式(shi)AI應用(yong)的(de)最簡單(dan)方式(shi)”。據加曼透露,每天都(dou)有成千上萬的(de)客戶將Bedrock用(yong)于生產應用(yong)程(cheng)序,這(zhe)幾乎是去年一年增(zeng)長率的(de)5倍。
1、自動推理檢查,可預防AI幻覺
AI幻覺(jue)是妨礙AI應(ying)用(yong)進入企(qi)業實際生(sheng)產的關鍵。AWS在(zai)探索過程中發(fa)現,自(zi)(zi)動推(tui)理可以被應(ying)用(yong)于解(jie)決(jue)這(zhe)個問題。自(zi)(zi)動推(tui)理通常用(yong)于證明系統是否按指定方(fang)式工作。這(zhe)個工具可以自(zi)(zi)動檢查(cha)方(fang)案和軟件(jian)(jian),驗(yan)證在(zai)遇到意外事件(jian)(jian)時(shi)如何正確響應(ying)等。
基于此,AWS推出了AWS Automated Reasoning checks,可驗證事實響應(ying)的(de)準(zhun)確(que)性(xing)、生成可審計的(de)輸出,并向客(ke)戶(hu)展示模型得出結果的(de)確(que)切原因(yin)。
同時,Amazon Bedrock會自動制定必(bi)要的規則,引(yin)導客戶對其(qi)進(jin)行迭代測(ce)試(shi),以(yi)確保模(mo)型調整到正確的響應。
2、多Agent協作,1小時完成此前1周任務
Bedrock的(de)新功能還(huan)有幫助企(qi)業輕松構建、部署、編(bian)排(pai)agent團隊,使其寫作解決復雜多步(bu)驟(zou)任務。
使用Amazon Bedrock?multi-agent collaboration,企業可通(tong)過(guo)為項目的特(te)定步(bu)驟(zou)創建和分配專(zhuan)門Agent來(lai)獲得更準確的結果(guo),并(bing)通(tong)過(guo)協調多個(ge)并(bing)行(xing)工作的Agent來(lai)加速任務。
比如企業(ye)(ye)可以在Bedrock上構建自己的專業(ye)(ye)Agent,然后創建主(zhu)管Agent或(huo)協調Agent來幫(bang)助管理(li)其他(ta)Agent。
AWS的客戶稱,這種多Agent協作使其此前需要大約1周時間的相同任務,現在可以在1小時內完成。
3、模型蒸餾,速度最高提升500%
當下每周都有新版本的模型發布,企(qi)業需要基于(yu)自(zi)己的實際需求找到更適合的模型,需要適當的專(zhuan)業知識、適當延(yan)遲、適當成本以完成任務。
企業目前解決的方案之一是模型蒸(zheng)餾,將(jiang)性能強大的(de)基(ji)礎(chu)模型中(zhong)的(de)數據和答(da)案拿出來訓練更小的(de)模型,這需要(yao)企業對訓練數據進(jin)行(xing)管理(li),并同時(shi)考(kao)慮到模型參數和權重(zhong)的(de)問(wen)題。
借助Amazon Bedrock?Model Distillation,客戶只需針對給定用例(li)選(xuan)擇最佳(jia)模型(xing)(xing),并從(cong)同一模型(xing)(xing)系列中選(xuan)擇較(jiao)小的模型(xing)(xing),即(ji)可以合適(shi)的成(cheng)本提供其應用程序所需的延(yan)遲(chi)。
與原始模型相比,蒸餾模型速度最高可提高500%,運行成本降低75%,對于檢索增強生成(RAG)等用例,準確度損失不到2%。
四、Amazon Q Developer超越代碼,覆蓋更廣泛開發任務
Amazon Q Developer輔助編程平臺此次升級的重點是超越代碼完成,幫助開發人員完成端到端軟(ruan)件生命周期中涉及的(de)更廣泛日常(chang)任務。
Amazon Q Developer的新(xin)功能主要包括:
- 將Windows .NET應用程序現代化為Linux,速度提高4倍,并將許可成本降低多達40%。
- 將VMware工作負載轉變為云原生架構,agents自動規劃、鑒別、決定和轉換網絡配置,在數小時內將本地網絡配置轉換為AWS等效配置。
- 通過簡化代碼分析、文檔、規劃和重構應用程序等勞動密集型工作來加速大型機現代化。
Q Developer現可(ke)自動生成(cheng)單(dan)元測試(shi),并幫助開發(fa)人(ren)員(yuan)編寫(xie)和維(wei)護代碼(ma)文檔。它可(ke)以生成(cheng)第(di)一個代碼(ma)審查,供(gong)開發(fa)人(ren)員(yuan)提(ti)交代碼(ma)時(shi)使(shi)用。一旦代碼(ma)投入生產,Q的(de)新運(yun)營(ying)Agent就自動從(cong)公司的(de)監控服務(wu)AWS CloudWatch中(zhong)提(ti)取數據,并在警報(bao)響(xiang)起時(shi)立(li)即開始調查。
AWS還(huan)推出了一(yi)款用于現代化COBOL大型機應用程(cheng)序(xu)的(de)Agent。
此外,開發人員和(he)安全平臺GitLab和(he)AWS宣(xuan)布已聯手(shou)將GitLab的Duo AI助手(shou)與亞(ya)馬(ma)遜(xun)的Q自(zi)主Agent結合(he)起來。GitLab用(yong)(yong)戶可用(yong)(yong)Duo的聊(liao)天功能訪(fang)問Amazon Q Developer中提供的許多(duo)Agent,以幫助進行代碼(ma)審(shen)查(cha)、生成單(dan)元(yuan)測試和(he)現代化他們的Java應用(yong)(yong)程序(xu),該功能現在已直接集成到GitLab聊(liao)天UI中。
五、與英偉達合作14年,明年初發布Blackwell架構P6實例
AWS將核心服務通過構建block提(ti)供,企業可以(yi)更容易(yi)將這(zhe)些服(fu)(fu)務進行組合,并建立真正有(you)趣的(de)應(ying)用(yong)。這(zhe)個構(gou)建Block的(de)概(gai)念一直是(shi)AWS構(gou)建服(fu)(fu)務、支持客戶運行的(de)基礎(chu),目前其已經(jing)提(ti)供了大(da)量服(fu)(fu)務模塊。
例如,在生物領域,AWS開發了ESM模型系列,幫助全球科學家理解和設計蛋白質。ESM3已經被訓練了1萬億兆兆次,計(ji)算了超(chao)20億個蛋白質序列,這意(yi)味著(zhu)科(ke)學家可(ke)以像設(she)計(ji)芯片一樣(yang)設(she)計(ji)蛋白質,朝著(zhu)生物(wu)可(ke)編程邁出(chu)一步。
加曼談到企業選擇AWS的一個重要原因就是安全。重視安(an)全是(shi)AWS開展業務的基礎,這關(guan)系到其如何設計數據(ju)中心(xin)、芯片、虛(xu)擬化堆棧以及(ji)服務體(ti)系結構。
在(zai)這之上(shang),截(jie)至目前,AWS提(ti)供了比(bi)任(ren)何(he)供應商都更多的計算資源。亞馬遜EC2擁(yong)有更多選(xuan)項、實例和功能,可以讓企業找到適合其(qi)工作負載的應用程序的對應性能。
例如,企(qi)業(ye)正(zheng)在運(yun)行(xing)一個用(yong)于(yu)分析工作流的(de)大型數據庫,AWS可以在任何(he)地方(fang)運(yun)行(xing)最大的(de)存(cun)儲系統;如果企(qi)業(ye)正(zheng)在運(yun)行(xing)一個HPC集群(qun)、大模(mo)型以及所(suo)有(you)集群(qun),并需要快(kuai)速(su)的(de)網絡將這些東西進行(xing)連接,而AWS擁有(you)訂購速(su)度最快(kuai)的(de)熟練網絡。
AWS自研(yan)芯(xin)片為其(qi)提供了更大(da)的(de)靈(ling)活性,當(dang)其(qi)單獨移動Nitro系統中(zhong)的(de)虛擬(ni)(ni)化(hua)設計時,可以無需重做(zuo)虛擬(ni)(ni)化(hua)堆棧。基于新的(de)實(shi)例類型,快速、簡(jian)單的(de)進行開發。
AWS的Graviton系列處理(li)器目前已經被幾乎所有的(de)AWS客(ke)戶廣(guang)泛(fan)使用,其性價比提高了40%。Graviton可(ke)以處理(li)更廣(guang)泛(fan)的(de)工作負載,包(bao)括標(biao)量代碼、數據庫等。
目前,絕大多數的模型運行在英偉達的GPU之上,AWS和英偉達合作已經14年,加曼宣布其合作升級,發布P6實例。P6系列將采用新Blackwell芯片,明年初發布,P6實例將提供最多2個,計算(suan)速(su)度比當前一代GPU快(kuai)5倍(bei)。
六、Amazon S3存儲功能擴展,更快數據湖分析、自動元數據生成
AWS致力于推出(chu)簡單(dan)可擴展的存儲(chu)方式(shi)。它(ta)在2006年推出(chu)的Amazon S3從根本上(shang)改變管理數據的想法,這一服務過去十(shi)幾年來(lai)爆炸式(shi)增長。Amazon S3 Intelligent-Tiering智能(neng)分(fen)層已(yi)為客(ke)戶節省40億美元。
在此基礎上,AWS推出Amazon S3 Tables功能(neng),使S3成為首(shou)個完全托管(guan)支(zhi)持Apache Iceberg的(de)云對象(xiang)存(cun)儲,可實現更快分析,并以最簡單的(de)方式存(cun)儲和管(guan)理(li)任何規模的(de)表(Table)數據。
許(xu)多客戶將(jiang)用于分(fen)析(xi)的(de)數(shu)據(ju)組織為(wei)表數(shu)據(ju),通常(chang)存儲在Apache Parquet中。Parquet已(yi)是S3中增長最快的(de)數(shu)據(ju)類型之一,Iceberg已(yi)成為(wei)管(guan)理Parquet文(wen)件的(de)最流行的(de)開放表格式(shi)(OTF)。
AWS將(jiang)S3 Tables稱作“對S3中的Apache Iceberg表(biao)執行分析的最簡單(dan)快捷的方法”。它專為管理數據(ju)湖的Apache Iceberg表(biao)而構建,是第一個具有內置(zhi)Apache Iceberg表(biao)支(zhi)持(chi)的云對象存儲(chu)并引入(ru)了(le)一種新的存儲(chu)桶類型(xing),來優化(hua)以Iceberg表(biao)形式存儲(chu)和查(cha)詢(xun)表(biao)數據(ju)。
與通用S3存儲桶相比,S3 Tables可提供3倍的查詢性能、10倍的每秒事務數(TPS),并會自動管理表維護(hu)任務。
AWS還推出了Amazon S3 Metadata,可(ke)以近乎實時地自動生成(cheng)可(ke)查(cha)詢的目標元數據(metadata),并使其可(ke)通過新S3 Tables進行(xing)查(cha)詢,讓發現和管理S3中(zhong)的海量數據變得更簡(jian)單快(kuai)捷。
S3 Tables(正(zheng)式發布)、S3 Metadata(預覽版)現(xian)已推出,與Apache Iceberg表兼容,支持用(yong)AWS分(fen)析服務和開源工(gong)具輕松(song)查(cha)詢數據。
七、兩大數據庫上新:能跨區域運行,具備強一致性
AWS今日宣布推出Amazon Aurora DSQL和Amazon DynamoDB global tables新(xin)功(gong)能,以支持(chi)一(yi)些工作負載對跨區(qu)域(yu)(yu)運行、強一(yi)致(zhi)性、低延遲、高可用性的(de)嚴(yan)苛需求,兩個數據庫的(de)跨區(qu)域(yu)(yu)強一(yi)致(zhi)性功(gong)能現已(yi)推出預覽版。
今年(nian)是Amazon Aurora發布的(de)(de)十周年(nian)。它是迄(qi)今發展最快的(de)(de)AWS服(fu)務。每天有數十萬客戶依賴的(de)(de)Amazon Aurora,提供了企(qi)業級商(shang)用數據庫的(de)(de)性(xing)能(neng)以及(ji)開源(yuan)的(de)(de)靈活性(xing)和經(jing)濟性(xing)。
如(ru)今AWS再次(ci)重新構想(xiang)關系數據庫(ku),讓客(ke)戶無需(xu)在低延遲或SQL之間做選擇。
Amazon Aurora DSQL是一(yi)種新型無服務器分布式SQL數據(ju)庫(ku),既(ji)可以提供高端商用數據(ju)庫(ku)的所有性能和功能,又具(ju)有開源(yuan)數據(ju)庫(ku)的靈活性和成本效益。
與其他流行的分布式SQL數據庫相比,Aurora DSQL的讀寫速度快至4倍,多區域可用性高達99.999%,可擴展性(xing)幾乎無(wu)限,而且無(wu)需(xu)管(guan)理基(ji)礎設施,無(wu)需(xu)配(pei)置、修(xiu)補或管(guan)理數(shu)據庫實例(li)。
Aurora DSQL克服了分布式數據庫的兩個歷史挑戰——實現多區域低延遲強一致性,以及在全球范圍內以微秒級精度同步服務器。
該數據庫通過將事務處理與存儲分離來克服(fu)當(dang)前(qian)方法的局限(xian)性(xing),僅在提(ti)交時檢查每個事務,并在提(ti)交時并行化所(suo)有(you)(you)區域的所(suo)有(you)(you)寫入,以提(ti)供(gong)具有(you)(you)強(qiang)一致性(xing)和快(kuai)速寫入的多區域數據庫,且所(suo)有(you)(you)更新和安全(quan)修補都無需停機,也不會對性(xing)能產生任何(he)影響。
為了確保每個區域都能按照發生的確切順序看到每個數據庫操作,Aurora DSQL使用了Amazon Time Sync Service,該服務在每個 Amazon EC2實例上添加了硬件參考時鐘,將它們同步到與衛星連接的原子鐘,以提供世界任何地方的微秒級精確時間。
Amazon DynamoDB第一(yi)個完全托管(guan)的(de)無服務器NoSQL數據庫,通過(guo)重新定義性(xing)能和簡化操作,在任何規模下都無需基礎設(she)施管(guan)理,并且始終保(bao)持個位數毫秒級的(de)性(xing)能。
該(gai)數據(ju)(ju)庫現支持多區(qu)(qu)域強一致(zhi)性(xing),確保客戶的多區(qu)(qu)域應(ying)用程序始終讀取(qu)最新數據(ju)(ju),而無(wu)需更(geng)改任何應(ying)用程序代碼。
八、面向高密度AI工作負載,推出全新靈活數據中心組件
AWS宣布推出全(quan)新(xin)數據中(zhong)心組件(電源、冷卻、硬件設計(ji)),旨(zhi)在支持高(gao)密度AI工(gong)作負(fu)載。
(1)簡化電氣和機械設計:使(shi)基礎設施可用性達到99.9999%,還將可能受電氣(qi)問(wen)題影響的機架數量(liang)減(jian)少了89%。
(2)冷卻、機架設計和控制系統的創新:開發(fa)全新(xin)可配置液冷解決方案,通過優化數據中心機架(jia)的(de)定(ding)位(wei)方式來最(zui)大限(xian)度利用電力(li),更新(xin)了(le)標準化監控、報警和(he)操作順序的(de)控制系統。
(3)提高能源效率和可持續性:與之前的(de)設計相(xiang)比(bi)(bi),預計在峰值冷卻條件下(xia)機(ji)械(xie)能消(xiao)耗(hao)可降低多達46%;與行業(ye)平(ping)均水平(ping)相(xiang)比(bi)(bi),數據中(zhong)心(xin)建筑(zhu)外殼混凝土(tu)中(zhong)的(de)隱含碳減少35%;備用發電機(ji)將能夠使用可生(sheng)物降解且無毒的(de)可再生(sheng)柴油燃料。
結語:一場大型科技創新秀場
歷屆(jie)AWS re:Invent大(da)會(hui),都是計(ji)算、安(an)全、存儲系統(tong)和AI基(ji)礎(chu)設施(shi)等的大(da)型創新秀(xiu)場(chang)。
從(cong)2003年秋(qiu)天啟程開始,AWS不(bu)斷降低(di)云(yun)服(fu)務的門檻,將(jiang)大公(gong)司級(ji)成本結構和規模的基(ji)礎設施變成人(ren)人(ren)隨處可得,讓大中小(xiao)型企業團(tuan)隊不(bu)必在計算(suan)、存儲、數據庫、分析等方面重復(fu)造輪子。
在全(quan)棧創(chuang)新的深度和產品(pin)組合(he)的廣度,使得這家云(yun)大(da)廠能(neng)夠(gou)(gou)持(chi)續鞏固高性(xing)能(neng)、節能(neng)、安(an)全(quan)、合(he)規、擴展性(xing)等方(fang)面的可(ke)信賴(lai)度,并跟上快速(su)變化(hua)的AI需求,有足夠(gou)(gou)的經驗和能(neng)力來幫助客戶(hu)更好地專注于自身業(ye)務和適應創(chuang)新。