10月2日,全球领先的人工智能基础设施供应商Super X AI Technology Limited(纳斯达克代码:SUPX,以下简称“SuperX”)正式推出其最新旗舰产品——SuperX XN9160-B300 AI服务器。服务器搭载NVIDIA Blackwell GPU(B300),旨在满足AI训练、机器学习(ML)和高性能计算(HPC)等工作负载对可扩展、高性能计算日益增长的需求。
此次XN9160-B300 AI服务器的发布,系统专为极致性能而设计,集成了先进的网络功能、可扩展的架构和高能效设计,能够为关键任务型数据中心环境提供有力支持。不仅是SuperX技术实力的集中展现,更是其AI基础设施战略路线图上的一个关键里程碑,标志着SuperX正全力推动计算能力向新的巅峰迈进,以赋能全球企业及研究机构探索更广阔的人工智能前沿。

极致性能:可用于万亿参数模型和百亿亿次计算
在AI模型参数呈指数级增长、科学模拟复杂度日益攀升的今天,传统计算架构已面临瓶颈。在此背景下,SuperX XN9160-B300 AI服务器专为加速大规模分布式AI训练和AI推理工作负载而打造,为高强度、高需求的应用提供极致的GPU性能。
公开资料显示,SuperX XN9160-B300 AI专为企业级AI和HPC环境设计,将超级计算机级别的性能与高能效、可扩展的架构相结合,以紧凑的、数据中心就绪的形态,提供关键任务所需的能力。服务器被构建为一个高度可扩展的AI节点,其核心是搭载8颗NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模组。这一配置为下一代AI工作负载提供了Blackwell架构的峰值性能。
尤为引人注目的是,NVIDIA Blackwell Ultra架构实现了决定性的性能飞跃。NVIDIA数据显示,与Blackwell相比,Blackwell Ultra每块芯片的NVFP4计算能力提升了惊人的50%,同时HBM容量也增加了50%,从而能够在不影响效率的情况下实现更大的模型和更快的量。
极致性能决定了SuperX XN9160-B300 AI服务器可适用于构建和运营万亿参数基础模型,能够执行百亿亿次(Exascale)级科学计算。针对GPU密集型任务,SuperX XN9160-B300 AI服务器进行了优化,在基础模型训练与推理,包括强化学习(RL)、蒸馏技术和多模态AI模型等领域表现卓越,同时也能为气候建模、药物发现、地震分析和保险风险建模等HPC工作负载提供超高性能。
值得一提的是,XN9160-B300在显存容量方面也实现了重大突破。通过8颗GPU,该服务器提供了高达2,304GB的统一HBM3E显存(每颗GPU 288GB)。这一庞大的显存池对于对于消除内存卸载、支持更大模型的驻留、以及管理高并发、长上下文的生成式AI和大型语言模型所需的海量键/值缓存至关重要。
强大系统:高效扩展设计和强大电源基础
对于当前动辄需要数千亿甚至万亿参数的基础模型,单机服务器性能再强,若无法高效扩展,也难以应对真正的AI工厂级任务。SuperX XN9160-B300在系统级互联设计上就已经深谋远虑。
通过多达8个用于InfiniBand的800Gb/s OSFP端口或双400Gb/s以太网,能够轻而易举实现系统扩展。这些端口提供了将服务器连接成大型AI工厂和SuperPOD集群所需的高速、低延迟通信。而通过第五代NVLink互连技术进一步确保了板载的8颗GPU无缝通信,构建了同一个单一、强大的加速器,从而能够满足超大规模模型训练和分布式推理的需求。
为了确保GPU计算潜力得到充分释放,XN9160-B300构建了一个无比强大的主机平台。该平台配备双路英特尔至强6处理器,无论是性能核心的高单核性能,还是能效核心的高并发处理能力,都为GPU提供了极致的数据预处理和供给效率。
内存子系统配置同样毫不妥协,高达32个DDR5 DIMM插槽,支持高达8000MT/s的速度(MRDIMM),确保了主机平台在处理海量数据时不会成为GPU处理的瓶颈,为系统持续满载运算提供了稳定数据流保障。
在至关重要的供电与可靠性方面,XN9160-B300配备了12个3000W 80 PLUS Titanium的冗余电源。这不仅为系统在持续峰值负载下的稳定运行提供了充足电力保障。此外,系统还提供了多个PCIe Gen5 x16插槽和全面的存储选项,包括8个2.5英寸Gen5 NVMe热插拔硬盘位,以满足高速数据缓存和存储需求。
精准定位:突破AI边界与赋能关键行业
SuperX发布的XN9160-B300 AI服务器,专为那些致力于突破AI边界的组织而设计,能够满足全球各行业对最大规模、下一代模型训练探索以及超低延迟推理的严苛需求,以卓越的硬件性能为基石,为前沿科技与应用创新提供强大支撑。
在超大规模AI工厂领域,XN9160-B300能够为云服务提供商和大型企业构建并运营万亿参数级基础模型的核心算力单元。其强大的并行计算能力与高带宽网络互联特性,能够有效支撑高并发AI推理引擎的稳定运行,满足海量用户实时访问的需求提供可靠保障。
面向科学模拟与研究,SuperX该款服务器可用于百亿亿次(Exascale)级科学计算。无论是进行先进的分子动力学模拟,还是构建覆盖工业全流程或生物数字孪生,XN9160-B300都能提供以往难以企及的计算精度与效率,从而显著加速科研探索进程。
在金融服务行业,该服务器能够用于实时风险建模与高频交易模拟,帮助机构在复杂市场环境中快速决策。同时,其优异的推理性能确保部署用于金融分析的复杂大型语言模型能够实现超低延迟响应,提升客户体验与业务自动化水平。
对于生物信息学与基因组学的研究,XN9160-B300凭借其巨大的显存容量,可以轻松加速海量基因组测序、药物发现流程以及需要B300巨大显存容量的蛋白质结构预测。
此外,在全球系统建模方面,XN9160-B300适用于需要极致算力进行全球气候和天气建模及高精度灾害预测的国家气象和政府机构,从而能够实现更为精准的中长期气候预测与极端灾害预警,为应对气候变化和保障社会安全提供科学依据与技术支撑。
当前,随着在AI算力模型规模不断突破、科学探索日益深邃,我们正站在一个新时代的起点——从前沿科学的突破,到日常生活的变革。而XN9160-B300 AI服务器的发布,意味着SuperX凭借其前瞻性的人工智能基础设施布局和强大的产品化能力,已经拿到了智能时代的关键钥匙,未来还将继续走在人工智能行业前沿。
免责声明:
以上新闻不代表公司观点,是作者基于当前可获得的信息,对事件做出的分析和预测,受限于各种风险和不确定性,实际结果可能因多种因素而与以上描述存在重大差异,不构成对任何人的投资建议。
$Super X AI Technology Ltd(NASDAQ|SUPX)$