SuperX发布旗舰AI服务器 算力和容量提升50%
来源:证券时报网作者:欧阳佟2025-10-08 17:49

人工智能基础设施供应商SuperX(NASDAQ:SUPX)日前推出最新旗舰产品XN9160-B300 AI服务器。该服务器搭载NVIDIA Blackwell GPU(B300),旨在满足AI训练、机器学习(ML)和高性能计算(HPC)等工作负载对可扩展、高性能计算日益增长的需求,能够为关键任务型数据中心环境提供有力支持。

据介绍,XN9160-B300 AI服务器专为加速大规模分布式AI训练和AI推理工作负载而打造,其核心是搭载8颗NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模组。Blackwell B300 GPU是NVIDIA基于Blackwell Ultra架构开发的新一代AI加速芯片,与Blackwell相比,Blackwell Ultra每块芯片的NVFP4计算能力提升了50%,同时HBM容量也增加了50%,从而能够在不影响效率的情况下实现更大的模型和更快的吞吐量。因此,该服务器可适用于构建和运营万亿参数基础模型,能够执行百亿亿次(Exascale)级科学计算。

针对GPU密集型任务,该服务器也进行了优化,在基础模型训练与推理,包括强化学习(RL)、蒸馏技术和多模态AI模型等领域表现出色,同时也能为气候建模、药物发现、地震分析和保险风险建模等HPC工作负载提供高性能。同时,该服务器在显存容量方面也实现了重大突破,提供了2304GB的统一HBM3E显存(每颗GPU 288GB)。高容量的显存池对于消除内存卸载、支持更大模型的驻留、以及管理高并发、长上下文的生成式AI和大型语言模型所需的海量键/值缓存至关重要。

对于当前动辄需要数千亿甚至万亿参数的基础模型,单机服务器性能再强,若无法高效扩展,也难以应对真正的AI工厂级任务。为此,XN9160-B300 AI服务器通过8个用于InfiniBand的800Gb/s OSFP端口或双400Gb/s以太网,能够便捷实现系统扩展。而通过第五代NVLink互连技术进一步确保了板载的8颗GPU无缝通信,能够满足超大规模模型训练和分布式推理的需求。

责任编辑: 康殷
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担
下载“证券时报”官方APP,或关注官方微信公众号,即可随时了解股市动态,洞察政策信息,把握财富机会。
网友评论
登录后可以发言
发送
网友评论仅供其表达个人看法,并不表明证券时报立场
暂无评论
为你推荐
时报热榜
换一换
    热点视频
    换一换