• 最近访问:
发表于 2025-10-08 18:30:00 股吧网页版
SuperX发布旗舰AI服务器 算力和容量提升50%
来源:证券时报网 作者:欧阳佟

K图 SUPX_0

  人工智能基础设施供应商SuperX(NASDAQ:SUPX)日前推出最新旗舰产品XN9160-B300 AI服务器。该服务器搭载NVIDIA Blackwell GPU(B300),旨在满足AI训练、机器学习(ML)和高性能计算(HPC)等工作负载对可扩展、高性能计算日益增长的需求,能够为关键任务型数据中心环境提供有力支持。

  据介绍,XN9160-B300 AI服务器专为加速大规模分布式AI训练和AI推理工作负载而打造,其核心是搭载8颗NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模组。Blackwell B300 GPU是NVIDIA基于Blackwell Ultra架构开发的新一代AI加速芯片,与Blackwell相比,Blackwell Ultra每块芯片的NVFP4计算能力提升了50%,同时HBM容量也增加了50%,从而能够在不影响效率的情况下实现更大的模型和更快的吞吐量。因此,该服务器可适用于构建和运营万亿参数基础模型,能够执行百亿亿次(Exascale)级科学计算。

  针对GPU密集型任务,该服务器也进行了优化,在基础模型训练与推理,包括强化学习(RL)、蒸馏技术和多模态AI模型等领域表现出色,同时也能为气候建模、药物发现、地震分析和保险风险建模等HPC工作负载提供高性能。同时,该服务器在显存容量方面也实现了重大突破,提供了2304GB的统一HBM3E显存(每颗GPU 288GB)。高容量的显存池对于消除内存卸载、支持更大模型的驻留、以及管理高并发、长上下文的生成式AI和大型语言模型所需的海量键/值缓存至关重要。

  对于当前动辄需要数千亿甚至万亿参数的基础模型,单机服务器性能再强,若无法高效扩展,也难以应对真正的AI工厂级任务。为此,XN9160-B300 AI服务器通过8个用于InfiniBand的800Gb/s OSFP端口或双400Gb/s以太网,能够便捷实现系统扩展。而通过第五代NVLink互连技术进一步确保了板载的8颗GPU无缝通信,能够满足超大规模模型训练和分布式推理的需求。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500