Nvidia CEO将世界首台DGX H200交付给OpenAI

一代新的GPU服务器

DGX H200是Nvidia推出的一款尖端GPU服务器,搭载了强大的H200 Tensor Core GPU。这款新GPU相比其前身H100,提供了141GB的内存,运行速度为4.8TB/s,而H100只有80GB的内存,运行速度为3.3TB/s。Nvidia声称H200是最强大的用于AI工作负载的GPU,巩固了其在该领域的领先地位。

一个熟悉的交付和关系的恶化

黄仁勋将DGX H200交付给OpenAI让人想起2016年的一个类似事件,当时他将DGX-1服务器交付给埃隆·马斯克。当时,马斯克是OpenAI的自豪成员和联合创始人,DGX-1极大地加速了他们的研究。然而,马斯克与OpenAI之间的关系已经恶化,马斯克起诉该组织,指控其违反创始合同,并加剧了人工通用智能的危险。目前尚不清楚马斯克是否会在未来获得类似的AI超级计算机。