本文作者:访客

甲骨文AI集群配备131072万块NVIDIA B200 GPU:恐怖算力24万亿亿次

访客 2024-09-12 21:04:31 27453 抢沙发
甲骨文AI集群配备131072万块NVIDIA B200 GPU:恐怖算力24万亿亿次摘要: 9月12日消息,甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务,其中最顶级的一款配备了超过10万块的NVIDIA Blackwell...

9月12日消息,甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务,其中最顶级的一款配备了超过10万块的NVIDIA Blackwell GPU。

甲骨文AI集群配备131072万块NVIDIA B200 GPU:恐怖算力24万亿亿次

它一共使用了多达131072万块B200 GPU加速卡,FP8浮点、INT8整数峰值性能高达2.4 ZFlops,也就是24万亿亿次每秒。

它的基本节点是NVIDIA GB200 NVL72液冷机柜,每一个内置72块GPU加速卡,不同机柜之间通过129.6TB/s带宽的NVLink总线进行互联。

无论加速卡的数量,还是峰值性能,都超过了马斯克。

不过它目前还只是纸面宣布,甲骨文称NVIDIA要到明年上半年才会批量供货Blackwell GPU,而这个庞大集群何时上线还没有准确的时间。

第二套集群配备了16384块NVIDIA H100,FP8/INT8峰值性能65 PFlops(6.5亿亿次每秒),带宽吞吐总量13Pbps。

第三道集群则是65536块NVIDIA H200,FP8/INT8峰值性能260 EFlops(2.6万亿亿次每秒),带宽吞吐总量52Pbps,今年晚些时候上线。

WideLabs、Zoom等企业已经开始采用甲骨文的新集群服务。

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,27453人围观)参与讨论

还没有评论,来说两句吧...