人工智能根底设施供货商SuperX(NASDAQ:SUPX)日前推出最新旗舰产品XN9160-B300 AI服务器。该服务器搭载NVIDIA Blackwell GPU(B300),旨在满意AI练习、机器学习(ML)和高功能核算(HPC)等作业负载对可扩展、高功能核算日渐增加的需求,可以为要害使命型数据中心环境供给有力支撑。
据介绍,XN9160-B300 AI服务器专为加快大规模分布式AI练习和AI推理作业负载而打造,其中心是搭载8颗NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模组。Blackwell B300 GPU是NVIDIA根据Blackwell Ultra架构开发的新一代AI加快芯片,与Blackwell比较,Blackwell Ultra每块芯片的NVFP4核算才能提高了50%,一起HBM容量也增加了50%,然后可以在不影响功率的情况下完成更大的模型和更快的吞吐量。因而,该服务器可适用于构建和运营万亿参数根底模型,可以履行百亿亿次(Exascale)级科学核算。
针对GPU密集型使命,该服务器也进行了优化,在根底模型练习与推理,包含强化学习(RL)、蒸馏技能和多模态AI模型等范畴表现出色,一起也能为气候建模、药物发现、地震剖析和稳妥危险建模等HPC作业负载供给高功能。一起,该服务器在显存容量方面也完成了重大突破,供给了2304GB的一致HBM3E显存(每颗GPU 288GB)。高容量的显存池关于消除内存卸载、支撑更大模型的驻留、以及办理高并发、长上下文的生成式AI和大型言语模型所需的海量键/值缓存至关重要。
关于当时动辄需求数千亿乃至万亿参数的根底模型,单机服务器功能再强,若无法高效扩展,也难以应对真实的AI工厂级使命。为此,XN9160-B300 AI服务器经过8个用于InfiniBand的800Gb/s OSFP端口或双400Gb/s以太网,可以快捷完成体系扩展。而经过第五代NVLink互连技能进一步保证了板载的8颗GPU无缝通讯,可以很好的满意超大规模模型练习和分布式推理的需求。
特别声明:以上内容(如有图片或视频亦包含在内)为自媒体渠道“网易号”用户上传并发布,本渠道仅供给信息存储服务。
让一批副校长、校长助理“下岗”!山东一地校领导减员105人!一线教师拍手叫好!
《编码物候》展览开幕 北京年代美术馆以科学艺术解读数字与生物交错的世界节律
游戏功能提高明显 价格上的优势高达15%!RX 9060 XT 16GB vs RTX 5060 Ti比照评测
Intel Panther Lake功能提高50%、功耗下降30%!18A工艺立大功
雷蛇《CS2》联名第二弹:旋风黑鲨 V3 PRO 耳机与风神 V2 X 座椅
