美超微(Supermicro)推出了一款新的解决方案,专为加速AI和机器学习的数据访问而设计。该方案能够充分利用GPU数据传输管道,显著减少AI价值实现的时间,帮助组织更快地训练模型,并迅速将数据应用于AI推理。 美超微的解决方案能够在AI训练方面处理和转换大量PB(Petabyte)级别的原始数据,并将其集成到企业AI工作流程中。该方案已在生产制造环境中得到验证,能够为AIOps和MLOps提供PB规模级的数据量。 Supermicro的总裁兼首席执行官梁见后强调,通过使用每机柜20 PB的高效能快闪存储,并配备四个优化应用的H100 8-GPU气冷服务器或八个H100 8-GPU的液冷服务器,客户可以加速AI和ML应用的运行。 此外,该解决方案为每个存储集群提供了至少270 GB/s的读取吞吐量和390万IOPS(输入/输出操作每秒),并且可以轻松扩展至数百PB的规模。通过结合使用PCIe 5.0、E3.S存储设备以及WEKA Data Platform软件的最新Supermicro系统,这一经过实地测试的机柜级解决方案显著提高了用户的AI应用效能。 梁见后指出,通过这个全新的存储解决方案,客户能够充分发挥最先进的GPU服务器机柜级解决方案的潜力,从而降低总拥有成本(TCO)并提高AI效能。 |
原创栏目
IT百科
网友评论
聚超值•精选