Super X AI Technology Limited发布了其最新的旗舰产品——SuperX XN9160-B200 AI服务器。这款新一代系统旨在满足对可扩展、高性能计算能力日益增长的需求。该服务器集成了NVIDIA的Blackwell B200 GPU架构,专为AI训练、机器学习(ML)和高性能计算(HPC)中的密集型工作负载而设计。
XN9160-B200 AI服务器专为加速大规模分布式AI训练和推理任务而打造。据报道,该系统的性能相较于上一代H100系列,在AI创新方面实现了高达30倍的加速,是一次重大的技术飞跃。其计算能力旨在与传统超级计算机相媲美,同时以更紧凑的企业级外形呈现。此次发布是该公司AI基础设施战略蓝图中的一个重要里程碑。
该服务器的核心是八个通过第五代NVLink技术连接的NVIDIA Blackwell B200 GPU,可提供高达1.8TB/s的GPU间带宽。此配置旨在将大规模AI模型训练速度提高三倍。在推理任务方面,该系统利用1440GB的高带宽HBM3E内存,与上一代相比性能显著提升。该系统的计算架构还得到了第六代英特尔®至强®处理器和高速DDR5内存的支持,所有部件均集成在一个10U机箱中。
该服务器针对一系列高级应用进行了优化,包括使用强化学习和蒸馏等技术的基础模型训练与推理、多模态模型处理以及复杂的HPC模拟。具体应用领域涵盖气候建模、药物发现、地震分析和保险风险建模等。
为确保关键AI任务的运行稳定性,XN9160-B200采用了先进的多路径电源冗余解决方案,配备多个冗余电源,以降低单点故障的风险。管理由内置的智能管理系统负责,支持远程监控。该公司指出,每台服务器都经过严格的满负荷压力测试和老化筛选,以确保其可靠性。
XN9160-B200的主要市场包括大型科技公司、学术和研究机构,以及金融、制药和政府气象机构等专业领域。Super X AI Technology Limited总部位于新加坡,为全球机构客户提供包括硬件、软件和端到端服务在内的AI数据中心综合解决方案。