1848年,美国加州的一名木匠在建造锯木厂时意外在河里发现了黄金,这一消息迅速传开,引发了全世界的淘金热。无数怀揣着发财梦的淘金客从世界各地涌向加利福尼亚,希望从金矿中挖掘到属于自己的财富。旧金山的人口在短时间内从1847年的500人激增至1870年的15万,整个地区陷入了一片淘金的狂热之中。
然而,在这场淘金热潮中,大多数直接参与淘金的人都没有像预期那样发财。由于淘金者之间的竞争激烈,加之美国西部艰苦的条件,许多人最终并没有赚到太多的钱。那么,真正赚钱的是谁?是那些提供必要服务和工具的商家。那些卖水、食品、住宿以及挖金所需的铲子和其他工具的人,由于需求的大幅增加,获得了意想不到的收益。这其中最出名的莫过于卖牛仔裤的德国移民李维·斯特劳斯,最终成立了李维斯公司,也就是现在的levi's。
放眼现在,在当下这场ai的“淘金”浪潮中,英伟达(nvidia)无疑是最靓的仔,是那个“卖铲子”的人。
2024年4月24日,英伟达创始人兼ceo黄仁勋亲自向openai交付了全球首台nvidia dgx h200 ai加速服务器。这一交付仪式在openai位于旧金山的办公室举行,openai的ceo sam altman和联合创始人兼总裁greg brockman出席了交接仪式。
nvidia dgx h200是何方大神
nvidia dgx h200是由英伟达设计的一款高性能ai超级计算机,专门针对需要处理大规模数据集和复杂ai模型的企业级应用而打造。dgx h200结合了英伟达多项先进技术,包括其最新的h200 tensor core gpu,以及高速nvlink互连技术,以提供前所未有的算力和效率,支持ai和高性能计算(hpc)工作负载。
值得一提的是,h200和dgx h200是两个不同的概念。h200指的是单个的tensor core gpu,它是英伟达推出的一款高性能 gpu,专为ai和hpc工作负载设计,具有大量的内存和高内存带宽。而黄仁勋亲自送往openai的这台dgx h200则指的是包含h200 gpu的整个ai超级计算机系统。换句话说,dgx h200是一个集成了多个h200 gpu、高速网络互连、以及专为ai优化的软件栈的完整解决方案。
nvidia dgx h200关键特性:
-
h200 tensor core gpu:dgx h200采用了基于nvidia hopper架构的h200 gpu,这是首款提供高达141 gb hbm3e内存的gpu,内存带宽达到4.8 tb/s。
-
超大的内存和性能:与前代产品相比,dgx h200提供了几乎500倍的gpu共享内存,专门用于处理大型推荐系统、生成式ai和图形分析领域的tb级模型训练。
-
互连技术:dgx h200支持通过nvlink switch系统将grace hopper超级芯片连接到同一个gpu中,实现了大规模的gpu间直接互连,提供了更高的带宽和更低的互连功耗。
-
ai 超级计算机:dgx h200被设计为能够处理万亿级参数ai模型的加速服务器,提供高达1 exaflop的性能和144 tb的共享内存。
算力和gpu?
我们从去年起常听到的“算力”是什么?为什么当下算力的主流来源是gpu?接下来我们聊一聊算力和gpu的关系。
算力
算力,即计算能力(computing power),是指计算机执行复杂计算和数据处理任务的能力。对于算力的理解可以分为狭义和广义两种。在狭义的理解中,算力就是对数学问题进行的运算,如简单的加法运算。广义上,任何对信息进行处理并得到结果的过程都可以称为“计算”,比如,人类的思考也可以视作一种计算过程。
作为衡量计算能力的指标,算力根据应用场景和需求可以被划分为以下几种类型。通用算力主要基于cpu的计算能力,能够处理广泛的计算任务,是日常计算需求的主力军。而当涉及到ai应用时,如深度学习和模式识别等,智能算力便显得尤为重要,通常由gpu、tpu(张量处理单元)等专用加速器提供,以应对复杂的机器学习算法。此外,超算算力涉及高性能计算集群,这些集群拥有巨大的计算能力,适用于执行科学研究和大规模计算密集型任务。最后,边缘算力指的是在网络的边缘位置进行的数据处理和计算,适合需要即时响应的应用,例如物联网(iot)设备的数据预处理。
gpu
gpu,即图形处理单元(graphics processing unit),是专门设计来处理图形和视觉计算任务的微处理器。gpu由数百个小的核心组成,这些核心能够进行并行处理,非常适合执行复杂的算法和大量数据操作。基于这个特性,gpu最初被用于加速图形渲染,目前被广泛应用于科学计算、数据分析、密码破解、金融建模等领域。
gpu在设计目标和工作方式上,与我们常听到的cpu有着显著的区别。cpu,中央处理器(central processing unit),是一种通用处理器,被设计用于处理一系列复杂的指令,执行逻辑运算、控制任务和处理复杂的计算序列。cpu的核心较少但功能强大,每个核心都具备较高的计算能力,并且能够执行复杂的控制任务。相比之下,gpu则包含大量的较小、较简单的核心,这些核心设计用于同时处理许多较小的计算任务,从而实现高吞吐量。也正因此,gpu在图形渲染和某些科学计算任务中表现出色。
加速算力的选择:gpu vs cpu
在ai和机器学习领域,gpu之所以成为提供加速算力的主流选择,而不是cpu,主要原因就是上面提到的gpu的并行处理能力。ai和机器学习算法通常涉及大量的矩阵运算和数据并行处理,这些任务可以被分解为成千上万个小任务,由gpu的多个核心同时执行。这种高度并行化的计算模式可以显著提高计算效率和速度。
除了并行处理能力,gpu还有独立的显存,可以提供更高的内存带宽。ai和机器学习算法通常需要处理大规模数据集,对内存带宽要求很高。gpu的高带宽显存可以加速数据的读写和传输,进一步提升计算性能。相比之下,cpu与系统内存共享带宽,在处理大型数据集时容易遇到内存瓶颈。
当然,需要指出的是,gpu并非在所有ai和机器学习任务中都是最优选择。对于某些小规模的、计算不密集的任务,使用cpu可能更简单高效。而且,gpu编程对开发者的要求较高,需要使用cuda等专门的编程框架,优化难度大。相比之下,cpu编程可以使用通用编程语言,开发门槛相对较低。
ilya去哪儿了?
作为openai联合创始人兼首席科学家,ilya sutskever消失在公众的视野中已长达数月。所以当openai发布与黄仁勋的合照后,热心的网友们不禁发问:ilya是不是藏在旁边的箱子里呢?
更是有网友表示:修复了openai发的照片,这下它完整了。
精选推荐
都读到这里了,点个赞鼓励一下吧,小手一赞,年薪百万!😊👍👍👍。关注我,ai之路不迷路,原创技术文章第一时间推送🤖。
发表评论