新產(chǎn)品提供獨特融合架構(gòu),業(yè)界領(lǐng)先人工智能先驅(qū)企業(yè)(例如 Cohere、CoreWeave 和 NVIDIA 等)正在利用此架構(gòu),實現(xiàn)突破性效能提升,並降低大規(guī)模人工智能訓(xùn)練和推理工作負載的基礎(chǔ)設(shè)施要求
巴黎和加州坎貝爾2025年7月9日 /美通社/ -- 自 RAISE SUMMIT 2025:WEKA 推出 NeuralMesh Axon,這是個突破性儲存系統(tǒng)。該系統(tǒng)利用創(chuàng)新融合架構(gòu),旨在解決百億億次人工智能應(yīng)用程式和工作負載的運行基本挑戰(zhàn)。NeuralMesh Axon 無縫融合 GPU 伺服器和人工智能工廠,從而簡化部署、降低成本,並顯著增強人工智能工作負載的回應(yīng)能力和效能,轉(zhuǎn)變未充分利用的 GPU 資源為統(tǒng)一兼高效能的基礎(chǔ)設(shè)施層。
新產(chǎn)品以該公司最近發(fā)佈的 NeuralMesh 儲存系統(tǒng)為基礎(chǔ),該系統(tǒng)透過強大嵌入式功能,增強容器化微服務(wù)架構(gòu),協(xié)助人工智能先驅(qū)、人工智能雲(yún)端和雲(yún)端新秀服務(wù)供應(yīng)商加速大規(guī)模人工智能模型發(fā)展,特別是它結(jié)合 NVIDIA AI Enterprise 軟體堆疊時,實現(xiàn)高級模型訓(xùn)練和推理最佳化。NeuralMesh Axon 還支援即時推理,顯著改善第一個權(quán)杖時間和整體權(quán)杖流通量,協(xié)助客戶更迅速地將創(chuàng)新推向市場。
每秒百億億次運算下,人工智能基礎(chǔ)設(shè)施障礙的複合性能
是大型語言模型 (LLM) 訓(xùn)練和推理工作負載的成敗關(guān)鍵,尤其是在極端規(guī)模運行時。那些機構(gòu)在倚靠繁重複製方法的傳統(tǒng)儲存架構(gòu)上,運行大量人工智能工作負載。這除了浪費 NVMe 容量,也面對嚴重低效率的問題,並難以應(yīng)付不可預(yù)測的效能和資源分配。
哪些原因?傳統(tǒng)架構(gòu)的設(shè)計,並非為了即時處理和儲存大量資料。它們在數(shù)據(jù)工作流和人工智能工作流程中,製造延遲和瓶頸,這能阻礙百億億次人工智能部署。未充分利用的 GPU 伺服器和過時的數(shù)據(jù)架構(gòu),將優(yōu)質(zhì)硬體變成閒置資本,造成訓(xùn)練工作負載出現(xiàn)高昂代價的停機時間。推理工作負載面對記憶體限制障礙,包括鍵-值 (KV) 快取和熱數(shù)據(jù),導(dǎo)致降低流通量和增加基礎(chǔ)設(shè)施壓力。有限 KV 快取卸載容量造成數(shù)據(jù)存取瓶頸,而傳入提示的資源分配變得複雜,直接影響營運支出和洞察時間。許多機構(gòu)正在轉(zhuǎn)用 NVIDIA 加速運算伺服器,並搭配 NVIDIA AI Enterprise 軟體,應(yīng)對這些挑戰(zhàn)。然而,由於他們?nèi)狈ΜF(xiàn)代儲存整合,而仍然會遇到重大工作流效率和整體 GPU 利用率限制。
專為全球最大兼最高要求加速運算環(huán)境而建
為了應(yīng)付這些挑戰(zhàn),NeuralMesh Axon 的高效能兼彈性儲存結(jié)構(gòu),透過利用本機 NVMe、備用 CPU 核心及其現(xiàn)有網(wǎng)絡(luò)基礎(chǔ)架構(gòu),直接整合至加速運算伺服器。這種統(tǒng)一兼軟體定義的運算和儲存層,為本地和遙距工作負載提供一致微秒延遲——超過 NFS 等傳統(tǒng)本地協(xié)定。
此外,當(dāng)利用 WEKA 的增強記憶體網(wǎng)格功能時,它可以為大規(guī)模的 KV 快取負載,提供近乎記憶體的速度。這有別於浪費聚合容量和故障時崩潰的繁重複製方法,NeuralMesh Axon 的獨特抹除碼設(shè)計可容許最多四個節(jié)點同時遺失,在重建期間維持完全流通量,並支援跨現(xiàn)有 NVMe、CPU 核心和網(wǎng)絡(luò)資源的預(yù)先定義資源分配——轉(zhuǎn)換隔離磁碟為百億億次級及以上的類似記憶體的低延遲儲存池,同時向全部可定址數(shù)據(jù),提供一致低延遲存取。
在百億億次級運算下,雲(yún)端服務(wù)供應(yīng)商和人工智能創(chuàng)新者需要能夠配對模型複雜性和資料集大小呈指數(shù)成長的基礎(chǔ)設(shè)施解決方案。NeuralMesh Axon 專為處於人工智能創(chuàng)新前沿的機構(gòu)設(shè)計,這些機構(gòu)需要即時、極大規(guī)模效能,而非隨著時間逐漸擴展。這包括建立人工智能服務(wù)的人工智能雲(yún)端供應(yīng)商和雲(yún)端新秀、區(qū)域人工智能工廠、為企業(yè)客戶開發(fā)人工智能解決方案的主要雲(yún)端供應(yīng)商,以及部署最高要求人工智能推理和訓(xùn)練解決方案的大型企業(yè)機構(gòu)。這些機構(gòu)必須靈活擴展和最佳化自身的人工智能基礎(chǔ)設(shè)施投資,而支援迅速的創(chuàng)新週期。
提供改變遊戲規(guī)則的效能,加速人工智能創(chuàng)新
早期採用者,包括業(yè)界領(lǐng)先兼安全第一企業(yè)人工智能公司 Cohere,已經(jīng)看到轉(zhuǎn)型成果。
Cohere 是 WEKA 首批部署 NeuralMesh Axon 的客戶之一,支援客戶的人工智能模型訓(xùn)練和推理工作負載。Cohere 面對高昂創(chuàng)新成本、資料傳送瓶頸和未充分利用 GPU,率先於公有雲(yún)中部署 NeuralMesh Axon,從而統(tǒng)一人工智能堆疊和簡化操作。
Cohere 工程副總裁 Autumn Moulder 表示:「對於人工智能模型建構(gòu)者來說,速度、GPU 最佳化和成本效益是任務(wù)關(guān)鍵。這表示更少硬件,生成更多權(quán)杖,並運行更多模型——而毋需等待容量或遷移數(shù)據(jù)。嵌入 WEKA 的 NeuralMesh Axon 至我們的 GPU 伺服器中,協(xié)助我們盡量提升利用率,並加速我們的人工智能工作流的每一步。效能提升已改變遊戲規(guī)則:過去推理部署需時五分鐘,現(xiàn)在可以於 15 秒內(nèi)完成,檢查點速度提升 10 倍。我們的團隊現(xiàn)在可以不斷疊代,並以前所未有的速度,將完全創(chuàng)新人工智能模型(例如 North 等)推向市場。 」
該公司為了改善培訓(xùn)和幫助發(fā)展 Cohere 的安全人工智能代理平臺 North,正在 CoreWeave Cloud 上部署 WEKA 的 NeuralMesh Axon。這創(chuàng)建堅實基礎(chǔ)來支援即時推理,並為 Cohere 的最終客戶提供卓越體驗。
CoreWeave 技術(shù)總監(jiān)兼共同創(chuàng)辦人 Peter Salanki:「我們正在進入人工智能進步超越原始運算的時代——它是由智能基礎(chǔ)設(shè)施設(shè)計爆發(fā)的。CoreWeave 正在透過消除限制人工智能規(guī)模發(fā)展的複雜性,而重新定義人工智能先驅(qū)的可能。我們透過無縫整合 WEKA 的 NeuralMesh Axon 至 CoreWeave 的人工智能雲(yún)端基礎(chǔ)設(shè)施,而正在直接賦予數(shù)據(jù)處理能力,實現(xiàn)微秒延遲,從而減少 I/O 等待時間,並為單個 GPU 伺服器提供超過 30 GB/s 的讀取速度、12 GB/s 寫入速度和 100 萬 IOPS。這種突破性方法提高 GPU 利用率,並為 Cohere 提供效能基礎(chǔ)。他們需要打破推理速度障礙,並為客戶提供先進人工智能解決方案?!?/p>
NVIDIA 解決方案架構(gòu)和工程副總裁 Marc Hamilton 表示:「人工智能工廠正在定義基於 NVIDIA 加速運算和我們的 NVIDIA 雲(yún)端合作夥伴生態(tài)系統(tǒng)建構(gòu)的人工智能基礎(chǔ)設(shè)施的未來。機構(gòu)透過大規(guī)模最佳化推理和,並於靠近 GPU 的地方嵌入超低延遲 NVMe 儲存,而可以釋放更多頻寬和擴展可用 GPU 記憶體為任何容量。我們與 CoreWeave 一起部署的合作夥伴解決方案(例如 WEKA 的 NeuralMesh Axon),為加速推理提供關(guān)鍵基礎(chǔ),同時帶來卓越效能和成本效益,協(xié)助新一代人工智能服務(wù)。 」
融合儲存和運算對人工智能創(chuàng)新的好處
NeuralMesh Axon 為百億億次級人工智能建構(gòu)者和雲(yún)端服務(wù)供應(yīng)商,帶來即時兼可量度的改進,包括:
WEKA 產(chǎn)品總監(jiān) Ajay Singh 表示:「百億億次人工智能面臨的基礎(chǔ)設(shè)施的挑戰(zhàn),有別於業(yè)界過去面對的任何挑戰(zhàn)。在 WEKA,我們看到很多機構(gòu)在訓(xùn)練期間面對 GPU 利用率低和推理期間 GPU 過載的問題,而每個模型和代理的人工智能成本卻高達數(shù)百萬美元。這就是我們設(shè)計 NeuralMesh Axon 的原因,它源於我們深度關(guān)注從 GPU 開始的每層人工智能基礎(chǔ)設(shè)施最佳化?,F(xiàn)在,人工智能為先的機構(gòu)可以在百億億次級及更高規(guī)模運作中,實現(xiàn)具有競爭力人工智能創(chuàng)新所需的效能和成本效益。 」
可用性
NeuralMesh Axon 目前僅向大型企業(yè)人工智能和雲(yún)端新秀客戶限量提供,預(yù)計將於 2025 年秋季全面上市。如欲更多資料,請瀏覽:
關(guān)於 WEKA
WEKA 正在透過其智能自適應(yīng)網(wǎng)格儲存系統(tǒng) NeuralMesh?,改變機構(gòu)建立、運作和擴展人工智能工作流程的方式。NeuralMesh 有別於(隨著人工智能環(huán)境擴展而變得更脆弱)傳統(tǒng)數(shù)據(jù)基礎(chǔ)設(shè)施,而隨著規(guī)模擴大而變得更迅速、更強大兼更有效率。它隨著您的人工智能環(huán)境而成長,為企業(yè)人工智能和代理式人工智能創(chuàng)新提供靈活基礎(chǔ)。NeuralMesh 獲 30%《財富》雜誌 50 強企業(yè)和全球領(lǐng)先雲(yún)端新秀和人工智能創(chuàng)新者信賴。它可最大化 GPU 利用率,加速取得首個權(quán)杖,並降低人工智能創(chuàng)新的成本。如欲了解更多,請瀏覽 www.weka.io 或追蹤我們的 LinkedIn 和 X。
WEKA 和 W 標誌乃 WekaIO, Inc. 的註冊商標,而此處其他商品名稱可能是其各自擁有人的商標。
繁體中文知識庫正在建設(shè)中,請您選擇簡體中文或英文版查看。
Copyright © 2025 美通社版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載.
Cision 旗下公司.