搭載 AlloyFlash 技術的 WEKApod Prime 以 65% 的價格性能優勢實現突破性成本效益;WEKApod Nitro 則提供前所未有的效能密度,為高要求的人工智能工作負載提供兩倍速度提升。
聖路易斯和加州坎貝爾2025年11月20日 /美通社/ — 於 SC25 大會上:人工智能 (AI) 儲存公司
WEKA 推出新一代 WEKApod 設備,重新定義人工智能儲存經濟效益
WEKApod 設備是部署與擴展 NeuralMesh™ by WEKA 技術最簡便、最快速的方式。作為全球唯一專為加速大規模 AI 而打造的儲存系統,NeuralMesh™ 具備獨特優勢。WekaPod 提供 NeuralMesh 軟件定義的靈活性,具備即用型預驗證配置,並配備大幅優化的設定工具,提供即插即用的使用體驗。機構可以從八部伺服器起步,隨部署規模擴展至數百部,在免除複雜整合作業的同時,完整運用 NeuralMesh 企業級功能集——涵蓋分散式中保護、即時快照、多協定接達、自動分層儲存、加密科技及混合雲端能力。
基礎架構效率危機
投資 AI 基礎設施的機構正面臨日益增大的壓力,必須證明投資回報率:寶貴的 GPU 資源閒置未充分利用,訓練週期延長了項目時程,推論成本吞噬利潤空間,而隨著數據量增長,雲端帳單更呈螺旋式上升。傳統儲存系統迫使人們做出不可能的抉擇:極致效能與可控成本,兩者永遠無法兼得。同時,數據中心限制(機架空間、電源預算和冷卻容量有限)意味著每個機架單元都必須提供更多功能,否則基礎架構成本無法控制。
新一代 WEKApod 系列產品正面對這些商業挑戰,提供直接解決方案。WekaPod Prime 消除了效能與成本之間的強制性差價,通過智能放置,根據工作負載特徵自動優化放置的智能資料,從而確保寫入保持完整效能,同時實現突破性的經濟效能。
如今 AI 建構商和雲端供應商可消除性能成本的取捨困境
WEKApod Prime:採用獨特的混合快閃科技方案,智能整合 TLC 與 eTLC 快閃記憶體,支援單一配置:1U 機架可容納多達 20 組驅動器,2U 機架則可擴充至 40 組驅動器。有別於傳統分層儲存方案所帶來的快取層級化、跨層級資料移動及寫入效能損失等問題,WEKApod 的 AlloyFlash 能在所有操作中提供穩定效能——包含無節流限制的完整寫入效能——同時實現突破性的經濟效益。絕不妥協、無寫入效能損失、無需快取層級。WEKApod Prime 已被 Danish Centre for AI Innovation (DCAI) 等頂尖 AI 雲端先驅機構採用。
結果是出色的密度,可直接解決數據中心資源限制:相較於前代產品,容量密度提升 4.6 倍,每機架單元寫入 IOPS 效能提升5倍,功率密度提升 4 倍(達到每千瓦 23,000 IOPS 或每千瓦 1.6 PB),每 TB 功耗降低 68%,同時維持 AI 工作負載所需的極致效能。對於訓練和檢查點等寫入密集的 AI 工作負載,這意味著存儲保持速度,而且不會造成效能損失:在重要作業期間閒置昂貴的 GPU。
WEKApod Nitro:專為運行數百至數千顆GPU的人工智慧工廠打造,透過升級硬件(包括 NVIDIA ConnectX-8 SuperNIC,實現兩倍效能提升與 60% 的性價比優勢,在緊湊的 1U 機箱內實現 800 Gb/s 吞吐量與 20 組 TLC 硬碟配置。作為經 NVIDIA DGX SuperPOD 及 NVIDIA Cloud Partner (NCP) 認證的一站式全包解決方案,兩種 WEKApod 配置皆能節省數星期的整合工作,讓企業得以在數日內(而非數月)將客戶服務推向市場,同時確保儲存基礎架構能與新一代加速器同步發展。
跨 AI 部署的可衡量業務影響
- 對於 AI 雲端供應商和新雲端: 使用現有基礎架構,同時維持保證性能 SLA 的同時,為更多客戶提供利潤。價格效能比提升 65% 直接轉化為 GPU 即服務解決方案的利潤率增長。更快的部署時間,意味著新客戶能更快實現收益。
- 對於部署 AI 工廠的企業: 透過免維護解決方案,在數日而非數月內部署 AI 計劃,消除複雜的整合工作,讓 IT 團隊無需專業技術即可實現企業級儲存效能。藉由提升密度與效能,最高可降低 68% 的耗電量,同時擴展 AI 能力時無需成比例增加資料中心佔地面積、電力或冷卻需求——從啟用首日起即創造可量化的基礎設施投資報酬率。
- 對於 AI 建構者和研究人員: GPU 使用率超過 90%,加速模型開發。縮短訓練時間,以加速迭代週期並獲得競爭優勢。降低推論成本,使新的 AI 應用程式更加經濟實惠。從只需八部伺服器起步,隨需求增長擴展至數百部,並預設包括完整的 NeuralMesh 企業級功能。
AI 基礎設施供應商已從這些創新中獲得直接的商業效益:
「空間和電力是數據中心創新的新界限。WekaPod 卓越的存儲效能密度,使我們能夠在最佳化的足跡內提供超擴展級別的資料輸送量和效率,從而釋放每千瓦和平方米更多 AI 能力,」Danish Centre for AI Innovation (DCAI) 行政總裁 Nadia Carlsten 表示:「這種效率直接提高經濟性,並加速我們將 AI 創新帶給客戶的方式。」
「AI 投資必須證明投資報酬率。WEKApod Prime 在不犧牲速度的前提下,提供高出 65% 的性價比;而 WEKApod Nitro 則將效能提升一倍,以最大化 GPU 使用率。結果是:模型開發速度更快、推論輸送量更高,以及更好的運算投資回報,從而直接影響盈利能力和上市時間。」WEKA 產品總監 Ajay Singh 表示。
NVIDIA 網路資深副總裁 Kevin Deierling 表示:「網路對 AI 基礎設施至關重要,能夠將 AI 的運算與儲存能力轉化為思考平台,得以大規模生成並交付數位智能的標記。憑藉 NVIDIA Spectrum-X 以太網與 NVIDIA ConnectX-8 網路科技作為 WEKApod 的基礎架構,WEKA 正協助企業消除數據瓶頸——此舉對於優化 AI 效能至關重要。」
推出安排
新一代 WekaPod 電器現已推出。各大機構可於以下連結獲取更多資訊:weka.io/wekapod,或於 SuperComputing 2025 蒞臨 WEKA 展位,展位號碼:2215。
WEKA 簡介
WEKA 憑藉其智能、適應性網狀儲存系統 WEKA® NeuralMesh™,正在變革機構建立、運行和擴展 AI 工作流程的方式。傳統的數據基礎設施會隨著工作負載擴展而變得更慢、更脆弱,與此不同,NeuralMesh 會隨著規模擴展而變得更快、更強、更高效,動態適應 AI 環境,為企業級 AI 和代理式 AI 創新提供靈活的基礎。NeuralMesh 深受 30% 的《財富》50 強企業信賴,幫助領先企業、AI 雲端服務供應商和 AI 開發者優化 GPU、加速擴展 AI 並降低創新成本。如欲了解更多,請瀏覽 www.weka.io 或追蹤我們的 LinkedIn 和 X。
WEKA 和 W 標誌乃 WekaIO, Inc. 的註冊商標,而此處其他商品名稱可能是其各自擁有人的商標。













