国产一级毛卡片视频在线播放,成人电影免费看,欧美精品日韩一区二区,日本福利视频在线,天天综合网加勒比

from common-pcom:html:key:hk_segment_includes_overall_segment_header_shtml
美通社: 全球領(lǐng)先的新聞稿發(fā)佈, 傳播和監(jiān)測服務(wù)提供者
首頁 > 新聞稿中心 > 行業(yè)新聞稿
en_US zh_TW ko_KR

WEKA 推出 NeuralMesh Axon,用於百億億次級人工智能部署

2025-07-09 16:01

新產(chǎn)品提供獨特融合架構(gòu),業(yè)界領(lǐng)先人工智能先驅(qū)企業(yè)(例如 Cohere、CoreWeave 和 NVIDIA 等)正在利用此架構(gòu),實現(xiàn)突破性效能提升,並降低大規(guī)模人工智能訓(xùn)練和推理工作負載的基礎(chǔ)設(shè)施要求

巴黎和加州坎貝爾2025年7月9日 /美通社/ -- 自 RAISE SUMMIT 2025:WEKA 推出 NeuralMesh Axon,這是個突破性儲存系統(tǒng)。該系統(tǒng)利用創(chuàng)新融合架構(gòu),旨在解決百億億次人工智能應(yīng)用程式和工作負載的運行基本挑戰(zhàn)。NeuralMesh Axon 無縫融合 GPU 伺服器和人工智能工廠,從而簡化部署、降低成本,並顯著增強人工智能工作負載的回應(yīng)能力和效能,轉(zhuǎn)變未充分利用的 GPU 資源為統(tǒng)一兼高效能的基礎(chǔ)設(shè)施層。

WEKA's NeuralMesh Axon delivers an innovative fusion architecture designed to address the fundamental challenges of running exascale AI applications and workloads.
WEKA's NeuralMesh Axon delivers an innovative fusion architecture designed to address the fundamental challenges of running exascale AI applications and workloads.

新產(chǎn)品以該公司最近發(fā)佈的 NeuralMesh 儲存系統(tǒng)為基礎(chǔ),該系統(tǒng)透過強大嵌入式功能,增強容器化微服務(wù)架構(gòu),協(xié)助人工智能先驅(qū)、人工智能雲(yún)端和雲(yún)端新秀服務(wù)供應(yīng)商加速大規(guī)模人工智能模型發(fā)展,特別是它結(jié)合 NVIDIA AI Enterprise 軟體堆疊時,實現(xiàn)高級模型訓(xùn)練和推理最佳化。NeuralMesh Axon 還支援即時推理,顯著改善第一個權(quán)杖時間和整體權(quán)杖流通量,協(xié)助客戶更迅速地將創(chuàng)新推向市場。

每秒百億億次運算下,人工智能基礎(chǔ)設(shè)施障礙的複合性能 
是大型語言模型 (LLM) 訓(xùn)練和推理工作負載的成敗關(guān)鍵,尤其是在極端規(guī)模運行時。那些機構(gòu)在倚靠繁重複製方法的傳統(tǒng)儲存架構(gòu)上,運行大量人工智能工作負載。這除了浪費 NVMe 容量,也面對嚴重低效率的問題,並難以應(yīng)付不可預(yù)測的效能和資源分配。

哪些原因?傳統(tǒng)架構(gòu)的設(shè)計,並非為了即時處理和儲存大量資料。它們在數(shù)據(jù)工作流和人工智能工作流程中,製造延遲和瓶頸,這能阻礙百億億次人工智能部署。未充分利用的 GPU 伺服器和過時的數(shù)據(jù)架構(gòu),將優(yōu)質(zhì)硬體變成閒置資本,造成訓(xùn)練工作負載出現(xiàn)高昂代價的停機時間。推理工作負載面對記憶體限制障礙,包括鍵-值 (KV) 快取和熱數(shù)據(jù),導(dǎo)致降低流通量和增加基礎(chǔ)設(shè)施壓力。有限 KV 快取卸載容量造成數(shù)據(jù)存取瓶頸,而傳入提示的資源分配變得複雜,直接影響營運支出和洞察時間。許多機構(gòu)正在轉(zhuǎn)用 NVIDIA 加速運算伺服器,並搭配 NVIDIA AI Enterprise 軟體,應(yīng)對這些挑戰(zhàn)。然而,由於他們?nèi)狈ΜF(xiàn)代儲存整合,而仍然會遇到重大工作流效率和整體 GPU 利用率限制。

專為全球最大兼最高要求加速運算環(huán)境而建 
為了應(yīng)付這些挑戰(zhàn),NeuralMesh Axon 的高效能兼彈性儲存結(jié)構(gòu),透過利用本機 NVMe、備用 CPU 核心及其現(xiàn)有網(wǎng)絡(luò)基礎(chǔ)架構(gòu),直接整合至加速運算伺服器。這種統(tǒng)一兼軟體定義的運算和儲存層,為本地和遙距工作負載提供一致微秒延遲——超過 NFS 等傳統(tǒng)本地協(xié)定。

此外,當(dāng)利用 WEKA 的增強記憶體網(wǎng)格功能時,它可以為大規(guī)模的 KV 快取負載,提供近乎記憶體的速度。這有別於浪費聚合容量和故障時崩潰的繁重複製方法,NeuralMesh Axon 的獨特抹除碼設(shè)計可容許最多四個節(jié)點同時遺失,在重建期間維持完全流通量,並支援跨現(xiàn)有 NVMe、CPU 核心和網(wǎng)絡(luò)資源的預(yù)先定義資源分配——轉(zhuǎn)換隔離磁碟為百億億次級及以上的類似記憶體的低延遲儲存池,同時向全部可定址數(shù)據(jù),提供一致低延遲存取。

在百億億次級運算下,雲(yún)端服務(wù)供應(yīng)商和人工智能創(chuàng)新者需要能夠配對模型複雜性和資料集大小呈指數(shù)成長的基礎(chǔ)設(shè)施解決方案。NeuralMesh Axon 專為處於人工智能創(chuàng)新前沿的機構(gòu)設(shè)計,這些機構(gòu)需要即時、極大規(guī)模效能,而非隨著時間逐漸擴展。這包括建立人工智能服務(wù)的人工智能雲(yún)端供應(yīng)商和雲(yún)端新秀、區(qū)域人工智能工廠、為企業(yè)客戶開發(fā)人工智能解決方案的主要雲(yún)端供應(yīng)商,以及部署最高要求人工智能推理和訓(xùn)練解決方案的大型企業(yè)機構(gòu)。這些機構(gòu)必須靈活擴展和最佳化自身的人工智能基礎(chǔ)設(shè)施投資,而支援迅速的創(chuàng)新週期。

提供改變遊戲規(guī)則的效能,加速人工智能創(chuàng)新 
早期採用者,包括業(yè)界領(lǐng)先兼安全第一企業(yè)人工智能公司 Cohere,已經(jīng)看到轉(zhuǎn)型成果。

Cohere 是 WEKA 首批部署 NeuralMesh Axon 的客戶之一,支援客戶的人工智能模型訓(xùn)練和推理工作負載。Cohere 面對高昂創(chuàng)新成本、資料傳送瓶頸和未充分利用 GPU,率先於公有雲(yún)中部署 NeuralMesh Axon,從而統(tǒng)一人工智能堆疊和簡化操作。

Cohere 工程副總裁 Autumn Moulder 表示:「對於人工智能模型建構(gòu)者來說,速度、GPU 最佳化和成本效益是任務(wù)關(guān)鍵。這表示更少硬件,生成更多權(quán)杖,並運行更多模型——而毋需等待容量或遷移數(shù)據(jù)。嵌入 WEKA 的 NeuralMesh Axon 至我們的 GPU 伺服器中,協(xié)助我們盡量提升利用率,並加速我們的人工智能工作流的每一步。效能提升已改變遊戲規(guī)則:過去推理部署需時五分鐘,現(xiàn)在可以於 15 秒內(nèi)完成,檢查點速度提升 10 倍。我們的團隊現(xiàn)在可以不斷疊代,並以前所未有的速度,將完全創(chuàng)新人工智能模型(例如 North 等)推向市場。 」

該公司為了改善培訓(xùn)和幫助發(fā)展 Cohere 的安全人工智能代理平臺 North,正在 CoreWeave Cloud 上部署 WEKA 的 NeuralMesh Axon。這創(chuàng)建堅實基礎(chǔ)來支援即時推理,並為 Cohere 的最終客戶提供卓越體驗。

CoreWeave 技術(shù)總監(jiān)兼共同創(chuàng)辦人 Peter Salanki:「我們正在進入人工智能進步超越原始運算的時代——它是由智能基礎(chǔ)設(shè)施設(shè)計爆發(fā)的。CoreWeave 正在透過消除限制人工智能規(guī)模發(fā)展的複雜性,而重新定義人工智能先驅(qū)的可能。我們透過無縫整合 WEKA 的 NeuralMesh Axon 至 CoreWeave 的人工智能雲(yún)端基礎(chǔ)設(shè)施,而正在直接賦予數(shù)據(jù)處理能力,實現(xiàn)微秒延遲,從而減少 I/O 等待時間,並為單個 GPU 伺服器提供超過 30 GB/s 的讀取速度、12 GB/s 寫入速度和 100 萬 IOPS。這種突破性方法提高 GPU 利用率,並為 Cohere 提供效能基礎(chǔ)。他們需要打破推理速度障礙,並為客戶提供先進人工智能解決方案?!?/p>

NVIDIA 解決方案架構(gòu)和工程副總裁 Marc Hamilton 表示:「人工智能工廠正在定義基於 NVIDIA 加速運算和我們的 NVIDIA 雲(yún)端合作夥伴生態(tài)系統(tǒng)建構(gòu)的人工智能基礎(chǔ)設(shè)施的未來。機構(gòu)透過大規(guī)模最佳化推理和,並於靠近 GPU 的地方嵌入超低延遲 NVMe 儲存,而可以釋放更多頻寬和擴展可用 GPU 記憶體為任何容量。我們與 CoreWeave 一起部署的合作夥伴解決方案(例如 WEKA 的 NeuralMesh Axon),為加速推理提供關(guān)鍵基礎(chǔ),同時帶來卓越效能和成本效益,協(xié)助新一代人工智能服務(wù)。 」

融合儲存和運算對人工智能創(chuàng)新的好處 
NeuralMesh Axon 為百億億次級人工智能建構(gòu)者和雲(yún)端服務(wù)供應(yīng)商,帶來即時兼可量度的改進,包括:

  • 擴展記憶體配加速權(quán)仗流通量:提供 WEKA 增強記憶體網(wǎng)格技術(shù)的緊密整合,透過利用它為權(quán)仗倉庫來擴展 GPU 記憶體。在多個客戶部署中,這提升第一個權(quán)仗效能 20 倍,從而實現(xiàn)更大上下文窗口,並顯著提高推理密集型工作負載的權(quán)仗處理效率。此外,NeuralMesh Axon 協(xié)助客戶動態(tài)調(diào)整運算和儲存資源,並無縫支援即時訓(xùn)練和即時推理。
  • 巨大 GPU 加速和效率提升:客戶透過 NeuralMesh Axon 而實現(xiàn)顯著效能和 GPU 利用率提升,人工智能模型訓(xùn)練工作負載超過 90%——較行業(yè)平均水平高三倍。NeuralMesh Axon 還降低機房數(shù)據(jù)中心所需的機架空間、電力和冷卻要求,透過利用現(xiàn)有伺服器資源,協(xié)助降低基礎(chǔ)設(shè)施成本和複雜性。
  • 立即擴充大規(guī)模人工智能工作流程:專為需要立即實現(xiàn)極端規(guī)模(而非隨著時間而成長)的人工智能創(chuàng)新者設(shè)計。NeuralMesh Axon 的容器化微服務(wù)架構(gòu)和雲(yún)端原生設(shè)計,協(xié)助機構(gòu)獨立地擴展儲存效能和容量,同時保持混合和多雲(yún)環(huán)境一致效能特徵。
  • 協(xié)助團隊專注建立人工智能,而非基礎(chǔ)設(shè)施:在混合和雲(yún)端環(huán)境中無縫運行,並整合現(xiàn)有 Kubernetes 和容器環(huán)境,從而無需外部儲存基礎(chǔ)設(shè)施並降低複雜性。

WEKA 產(chǎn)品總監(jiān) Ajay Singh 表示:「百億億次人工智能面臨的基礎(chǔ)設(shè)施的挑戰(zhàn),有別於業(yè)界過去面對的任何挑戰(zhàn)。在 WEKA,我們看到很多機構(gòu)在訓(xùn)練期間面對 GPU 利用率低和推理期間 GPU 過載的問題,而每個模型和代理的人工智能成本卻高達數(shù)百萬美元。這就是我們設(shè)計 NeuralMesh Axon 的原因,它源於我們深度關(guān)注從 GPU 開始的每層人工智能基礎(chǔ)設(shè)施最佳化?,F(xiàn)在,人工智能為先的機構(gòu)可以在百億億次級及更高規(guī)模運作中,實現(xiàn)具有競爭力人工智能創(chuàng)新所需的效能和成本效益。 」

可用性 
NeuralMesh Axon 目前僅向大型企業(yè)人工智能和雲(yún)端新秀客戶限量提供,預(yù)計將於 2025 年秋季全面上市。如欲更多資料,請瀏覽:

關(guān)於 WEKA 
WEKA 正在透過其智能自適應(yīng)網(wǎng)格儲存系統(tǒng) NeuralMesh?,改變機構(gòu)建立、運作和擴展人工智能工作流程的方式。NeuralMesh 有別於(隨著人工智能環(huán)境擴展而變得更脆弱)傳統(tǒng)數(shù)據(jù)基礎(chǔ)設(shè)施,而隨著規(guī)模擴大而變得更迅速、更強大兼更有效率。它隨著您的人工智能環(huán)境而成長,為企業(yè)人工智能和代理式人工智能創(chuàng)新提供靈活基礎(chǔ)。NeuralMesh 獲 30%《財富》雜誌 50 強企業(yè)和全球領(lǐng)先雲(yún)端新秀和人工智能創(chuàng)新者信賴。它可最大化 GPU 利用率,加速取得首個權(quán)杖,並降低人工智能創(chuàng)新的成本。如欲了解更多,請瀏覽 www.weka.io 或追蹤我們的 LinkedInX。

WEKA 和 W 標誌乃 WekaIO, Inc. 的註冊商標,而此處其他商品名稱可能是其各自擁有人的商標。

WEKA: The Foundation for Enterprise AI
WEKA: The Foundation for Enterprise AI
消息來源: WEKA
from common-pcom:html:key:hk_segment_includes_releases_right_column_video_module_shtml
精選視頻
數(shù)據(jù)顯示視頻、圖片等元素讓新聞稿點擊量提升77%
 

電腦硬件 最近新聞稿

電腦軟件 最近新聞稿

電腦/電子 最近新聞稿

體育運動 最近新聞稿

新產(chǎn)品/新服務(wù) 最近新聞稿

人工智能 最近新聞稿

雲(yún)計算/物聯(lián)網(wǎng) 最近新聞稿

from common-pcom:html:key:hk_segment_includes_overall_segment_footer_shtml
進階搜尋
搜尋
  
  1. 產(chǎn)品與服務(wù)
  2. 新聞稿中心
  3. 知識庫
  4. 博客
  5. 多媒體新聞稿
  6. 聯(lián)繫我們
  7. 繁體中文知識庫正在建設(shè)中,請您選擇簡體中文或英文版查看。

  1. 關(guān)於美通社
  2. 聯(lián)繫我們
  3. Legal
  4. Privacy Policy
  5. 加入我們
  6. 網(wǎng)站地圖
  7. RSS訂閱

Copyright © 2025 美通社版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載.
Cision 旗下公司.

  1. 新聞稿發(fā)佈
  2. 媒體監(jiān)測和情報
  3. 信息披露和投資者傳播
  4. 傳播優(yōu)化與增值
  5. 客戶 FAQ
  1. 記者登入 / 註冊
  2. 專家登入 / 註冊
  3. 企業(yè)登錄
  1. 美國
  2. 巴西
  3. 加拿大
  4. 歐洲
  5. 法國
  6. 以色列
  7. 墨西哥
  8. 荷蘭
  9. 英國