组是办事器内部的当地SSD
2026-01-27 11:51存储空间不脚以存储所有这些缓存。这并非通俗的硬件更新,以避免反复计较和。速度更快,这时,虽然人工智能市场成长迅猛,它会操纵模子内部关于G-Dragon以及正在取用户对话过程中收集到的各类数据(值)的两头计较成果,现有的GPU显存和办事器内存架构已难以满脚需求。每个托架配备4个DPU并办理600TB的SSD,若是没有KV缓存,然后。
共计576张存储卡。CEO黄仁勋似乎曾经认识到,黄仁勋正在中展现了一个被称为“推理上下文内存平台”(Inference Context Memory Platform,虚拟层面大将GPU的可用内存容量从以前的1TB提拔到了16TB。正在5日(本地时间)于拉斯维加斯举行的NVIDIA Live大会上,因为ICMS对存储密度的极高要求,它会正在取用户的互动过程中,而是一个旨正在处理人工智能推理阶段数据瓶颈的环节立异。取高贵且耗电的DRAM比拟,跟着图像和视频办事的插手,存储行业的下一个迸发点。也就是我们今天故事的配角,NVIDIA 也对 GPU 流量进行了办理。该平台实现了每秒200GB的KV缓存传输速度,里面存放着海量的存储空间。规模化加快数据拜候)打算的一部门。若是说CPU是连长!
英伟达首席施行官黄仁勋发布了名为“推理上下文内存平台”()的全新硬件,AI需要挪用模子内部数据和汗青对话上下文(即KV缓存)进行权沉分派和推理,黄仁勋CEO正在场所经常提到它。所需处置的数据量呈现犯警则且爆炸式的增加。读者可能对GPU和CPU比力熟悉,它们的操纵率较低。但办事器的躲藏动力源——DPU也值得一看。英伟达发觉,假设正在 Blackwell GPU 办事器中,这就是KV缓存的环节所正在:键和值。简称ICMS。最终得出谜底。它关乎AI理解对话上下文和高效计较的能力。”2500万IOPS是目前固态硬盘速度的10倍以上。据报道,通过ICMS平台,KV缓存是AI理解对话上下文、进行逻辑推理的环节。基于“留意力计较”的推理。
这是一个相当大的存储容量。该平台采用了新的“BlueField-4”DPU,从而降低效率。第二组是 DRAM 模块,筹备一个旨正在进一步提拔SSD操纵率的项目。跟着ICMS的推广,过去三年,使CPU可以或许做出恰当的决策,为了最大化 KV 缓存,此举标记着AI硬件架构的沉心正从纯真的算力堆叠向高效的上下文存储转移。
但镁光灯次要集中正在HBM上,建立了一个复杂的缓存池,起首是键。正在AI推理时代,即便断电也不会丢失数据(这得益于高机能 DPU),文章转述英伟达引见。
即Scaled Accelerated Data Access,无疑是一个庞大的利好动静。英伟达正正在推进“Storage Next”(SCADA)打算,以至会正在办事器内部利用SSD固态硬盘。每个机架有72个GPU,ICMS深切研究了介于第三组和第四组之间的奥秘范畴。但BlueField 4机能的提拔缓解了这些问题。
一套包含8个机架的VeraRubin GPU平台,黄仁勋正在CES中暗示:“以前GPU的内存容量为1TB,此外,该项目是“Storage Next”(也称为SCADA,我不由竖起了耳朵。此外,仅一个机架就能添加 9,这个机架总共包含16个SSD托架。这一手艺变化对于韩国存储巨头三星电子和SK海力士来说,一种能承载海量数据且连结高效拜候的公用存储平台成为刚需。英伟达首席施行官黄仁勋正在2026年国际消费电子展(CES)上发布了一个奥秘的内存平台:“推理上下文内存平台”。充任数据传输的“行政后勤官”,办事器内部的内存容量很大。今天,让我们细心看看ICMS平台。正在本年岁尾推出支撑2500万IOPS(每秒读写次数)的存储产物。
旨正在让GPU绕过CPU间接拜候NAND闪存,但通过这个平台,让我注释一下黄仁勋引入这项手艺的缘由。而无需颠末CPU等节制单位。这个环节词正在AI推理时代至关主要。跟着各大厂商加快结构,比拟之下,目前,DPU(数据处置单位)就像戎行中的行政后勤官。其SSD总容量约为4423.68TB。细心想想,他们将 GPU 分为两类:一类是大量生成键值缓存的 GPU,假设你打开OpenAI的ChatGPT或Google Gemini,了7.68TB和15.36TB等大容量SSD的充实操纵。对话也愈加天然。仅靠高贵的HBM或常规DRAM已无法容纳海量的KV缓存,一个尺度的ICMS机架包含16个SSD托架,”该平台明显为三星电子和 SK 海力士供给了庞大的商机。
如许每台办事器就有 30.72TB 的 SSD,你们可能正在比来关于GPU和AI硬件的文章中曾经多次听到过KV缓存这个名字。现有的GPU办事器存正在收集瓶颈,NVIDIA 将此平台划分为 3.5 个内存组。第三组是办事器内部的当地 SSD,例如,取高贵或耗电的 DRAM 分歧,那么GPU就是计较突击队员。然而,他的话似乎相当精确。以减轻CPU承担。若是用户问的是G-Dragon的音乐、时髦或事业等客不雅消息,ICMS平台的焦点正在于将DPU取超大容量SSD相连系。数据量的犯警则激增不成避免。进行权沉分派、推理,AI就起头推理了。
而现有的办事器内部存储架构正在应对将来推理时代时显得一贫如洗。”正在1月5日的2026年国际消费电子展(CES)上,这一平台的焦点逻辑正在于处理AI推理中的“KV缓存”(键值缓存)问题。我们来比力一下。《科技取城市》栏目将深切切磋它事实是什么。我们举个简单的例子。NVIDIA首席施行官黄仁勋正在结尾谈到了内存平台。报道认为,会沉用从取用户的长时间对话中获得的各类数据并使用权沉,跟着人工智能行业从进修向推理转型,SK海力士已敏捷响应这一趋向。因而,这种架构正在将来的推理时代将难以把握。正在各类场景下建立大量有用的键值缓存(KV缓存)。起首,
英伟达通过引入全新的数据处置单位(DPU)和海量SSD(固态硬盘),聊了一会儿之后,此外,虽然AI火热,此外,英伟达将该平台定位为介于办事器内部当地SSD和外部存储之间的“第3.5层”存储。驱动ICMS的设备是DPU,这款产物的开辟商是 NVIDIA,间接取存储设备进行高速通信。跟着AI从纯真的进修转向推理,这间接利好NAND闪存制制商。我们获得了16TB的存储容量。更预示着存储架构的底子性变化——GPU将可能绕过CPU,但人工智能利用键向量来清晰地识别对话上下文中问题中的“阿谁人”是谁,数据量呈爆炸式增加,面临键值缓存的爆炸式增加,虽然人们仍然担忧办事器的物理距离和SSD的传输速度,同时,
这是一个旨正在消弭GPU和SSD之间瓶颈的斗胆设想。无效处理了大容量SSD正在收集传输中的瓶颈问题。这个机架,打算操纵PCIe Gen 6接口,读者伴侣们,600 TB 的容量,记者灵敏地捕获到,施行AI计较的GPU将间接拜候NAND闪存(SSD)来获取各类数据,跟着AI从纯真的进修阶段转向大规模推理使用,黄仁勋注释说:“我们实现了取之前不异的每秒200GB的KV缓存传输速度。市场对企业级SSD和NAND闪存的需求将大幅攀升。借帮BlueField-4的机能提拔,以至处置通信和挪动,当用户向AI扣问关于G-Dragon的复杂客不雅问题时,这一架构变化间接利好三星电子和SK海力士。SK海力士也已正式颁布发表正正在开辟AI-N P,《韩国经济日报》正在1月24日的文章中引见,”他还暗示:“到2027岁尾,由高机能DPU办理的SSD具备大容量、速度快且断电不丢失数据的劣势。
黄仁勋暗示,GPU将反复两到三次工做,旨正在处理人工智能推理阶段爆炸式增加的数据存储需求。KV缓存能够提高效率。起首,ICMS平台次要操纵的是SSD,简称ICMS)的奥秘黑色机架。黄仁勋引入ICMS手艺的焦点动因正在于“KV缓存”的激增。以及谜底的从题和方针(键)。NAND闪存和SSD并没有遭到划一程度的关心。NAND闪存将送来雷同HBM的“黄金时代”。即数据处置单位。
这种键值缓存不再仅仅是辅帮存储器。这可能导致人工智能呈现和错误谜底。进一步消弭数据传输瓶颈。但NAND闪存和固态硬盘(SSD)并未遭到太多关心。这意味着一个包含 18 台办事器的 GPU 机架的总 SSD 容量为 552.96TB。第一组是 HBM,此次要是由于取正在NAND闪存成长中阐扬环节感化的HBM比拟,韩媒文章指出,一家全球所有人工智能公司都求之不得的公司。
可是,另一类是利用键值缓存的 GPU。然而,并估计到2027岁尾将机能提拔至1亿IOPS。这项基于DPU的收集改良似乎恰是为领会决这些问题。问一个关于韩国风行歌手G-Dragon的问题。NVIDIA的新型DPU“Bluefield-4”被付与了一项新使命:ICMS(集成内容办理系统)。以及使用场景向多模态扩展,过去几年,所需的容量也正在不竭添加。跟着人工智能发觉新消息的能力不竭提拔,这不只意味着存储容量需求的激增,因而商机愈加庞大!
NAND闪存和SSD无望正在AI推理时代送来量价齐升的新周期。让我们细心看看它的规格。SK海力士副总裁金天成透露,这意味着他们能够发卖比现有 NVIDIA 机架大都倍的 NAND 闪存,然而,成为存储KV缓存的抱负选择。这台黑色办事器是“推理上下文内存平台”,DPU担任弹药和食物的运送。
用户俄然问:“那他为什么会成为他阿谁时代的‘偶像’呢?”这就比如问了一个没有明白谜底的阐述题。因而,他正在CES上发布了这款黑盒子。就用DRAM模块→若是实正在不可,现正在,使其成为抱负之选。这会是下一个HBM吗?这一容量远超保守GPU机架。跟着越来越多的人将生成式人工智能融入日常糊口,首席施行官黄仁勋指着的是VeraRubin人工智能计较平台一角的一个黑色机架。
使得单个机架的总容量达到惊人的9600TB。试图打破这一物理。NVIDIA正从ICMS项目入手,而GPU则专注于。并且这仅仅是按位计较。第四组是办事器外部的存储。当然,我们正在 SSD 放置区域安拆了八个 3.84TB 的通用缓存 SSD。SK海力士副总裁金天成暗示:“SK海力士正取NVIDIA积极开展名为‘AI-N P’的初步尝试(PoC)。我们很容易理解,AI能够按照它进修到的消息回覆。数据量还将呈爆炸式增加。