当前位置: 代码网 > 科技>电脑产品>CPU > 值得让英伟达CEO黄仁勋亲自给OpenAI配送的AI服务器!一文带你了解算力,GPU,CPU!

值得让英伟达CEO黄仁勋亲自给OpenAI配送的AI服务器!一文带你了解算力,GPU,CPU!

2024年08月03日 CPU 我要评论
值得让英伟达CEO黄仁勋亲自给OpenAI配送的AI服务器!一文带你了解算力,GPU,CPU!

1848年,美国加州的一名木匠在建造锯木厂时意外在河里发现了黄金,这一消息迅速传开,引发了全世界的淘金热。无数怀揣着发财梦的淘金客从世界各地涌向加利福尼亚,希望从金矿中挖掘到属于自己的财富。旧金山的人口在短时间内从1847年的500人激增至1870年的15万,整个地区陷入了一片淘金的狂热之中。

然而,在这场淘金热潮中,大多数直接参与淘金的人都没有像预期那样发财。由于淘金者之间的竞争激烈,加之美国西部艰苦的条件,许多人最终并没有赚到太多的钱。那么,真正赚钱的是谁?是那些提供必要服务和工具的商家。那些卖水、食品、住宿以及挖金所需的铲子和其他工具的人,由于需求的大幅增加,获得了意想不到的收益。这其中最出名的莫过于卖牛仔裤的德国移民李维·斯特劳斯,最终成立了李维斯公司,也就是现在的levi's。

放眼现在,在当下这场ai的“淘金”浪潮中,英伟达(nvidia)无疑是最靓的仔,是那个“卖铲子”的人。

2024年4月24日,英伟达创始人兼ceo黄仁勋亲自向openai交付了全球首台nvidia dgx h200 ai加速服务器。这一交付仪式在openai位于旧金山的办公室举行,openai的ceo sam altman和联合创始人兼总裁greg brockman出席了交接仪式。

nvidia dgx h200是何方大神

nvidia dgx h200是由英伟达设计的一款高性能ai超级计算机,专门针对需要处理大规模数据集和复杂ai模型的企业级应用而打造。dgx h200结合了英伟达多项先进技术,包括其最新的h200 tensor core gpu,以及高速nvlink互连技术,以提供前所未有的算力和效率,支持ai和高性能计算(hpc)工作负载。

值得一提的是,h200和dgx h200是两个不同的概念。h200指的是单个的tensor core gpu,它是英伟达推出的一款高性能 gpu,专为ai和hpc工作负载设计,具有大量的内存和高内存带宽。而黄仁勋亲自送往openai的这台dgx h200则指的是包含h200 gpu的整个ai超级计算机系统。换句话说,dgx h200是一个集成了多个h200 gpu、高速网络互连、以及专为ai优化的软件栈的完整解决方案。

nvidia dgx h200关键特性:

  1. h200 tensor core gpu:dgx h200采用了基于nvidia hopper架构的h200 gpu,这是首款提供高达141 gb hbm3e内存的gpu,内存带宽达到4.8 tb/s。

  2. 超大的内存和性能:与前代产品相比,dgx h200提供了几乎500倍的gpu共享内存,专门用于处理大型推荐系统、生成式ai和图形分析领域的tb级模型训练。

  3. 互连技术:dgx h200支持通过nvlink switch系统将grace hopper超级芯片连接到同一个gpu中,实现了大规模的gpu间直接互连,提供了更高的带宽和更低的互连功耗。

  4. ai 超级计算机:dgx h200被设计为能够处理万亿级参数ai模型的加速服务器,提供高达1 exaflop的性能和144 tb的共享内存。

算力和gpu?

我们从去年起常听到的“算力”是什么?为什么当下算力的主流来源是gpu?接下来我们聊一聊算力和gpu的关系。

算力

算力,即计算能力(computing power),是指计算机执行复杂计算和数据处理任务的能力。对于算力的理解可以分为狭义和广义两种。在狭义的理解中,算力就是对数学问题进行的运算,如简单的加法运算。广义上,任何对信息进行处理并得到结果的过程都可以称为“计算”,比如,人类的思考也可以视作一种计算过程。

作为衡量计算能力的指标,算力根据应用场景和需求可以被划分为以下几种类型。通用算力主要基于cpu的计算能力,能够处理广泛的计算任务,是日常计算需求的主力军。而当涉及到ai应用时,如深度学习和模式识别等,智能算力便显得尤为重要,通常由gpu、tpu(张量处理单元)等专用加速器提供,以应对复杂的机器学习算法。此外,超算算力涉及高性能计算集群,这些集群拥有巨大的计算能力,适用于执行科学研究和大规模计算密集型任务。最后,边缘算力指的是在网络的边缘位置进行的数据处理和计算,适合需要即时响应的应用,例如物联网(iot)设备的数据预处理。

gpu

gpu,即图形处理单元(graphics processing unit),是专门设计来处理图形和视觉计算任务的微处理器。gpu由数百个小的核心组成,这些核心能够进行并行处理,非常适合执行复杂的算法和大量数据操作。基于这个特性,gpu最初被用于加速图形渲染,目前被广泛应用于科学计算、数据分析、密码破解、金融建模等领域。

gpu在设计目标和工作方式上,与我们常听到的cpu有着显著的区别。cpu,中央处理器(central processing unit),是一种通用处理器,被设计用于处理一系列复杂的指令,执行逻辑运算、控制任务和处理复杂的计算序列。cpu的核心较少但功能强大,每个核心都具备较高的计算能力,并且能够执行复杂的控制任务。相比之下,gpu则包含大量的较小、较简单的核心,这些核心设计用于同时处理许多较小的计算任务,从而实现高吞吐量。也正因此,gpu在图形渲染和某些科学计算任务中表现出色。

加速算力的选择:gpu vs cpu

在ai和机器学习领域,gpu之所以成为提供加速算力的主流选择,而不是cpu,主要原因就是上面提到的gpu的并行处理能力。ai和机器学习算法通常涉及大量的矩阵运算和数据并行处理,这些任务可以被分解为成千上万个小任务,由gpu的多个核心同时执行。这种高度并行化的计算模式可以显著提高计算效率和速度。

除了并行处理能力,gpu还有独立的显存,可以提供更高的内存带宽。ai和机器学习算法通常需要处理大规模数据集,对内存带宽要求很高。gpu的高带宽显存可以加速数据的读写和传输,进一步提升计算性能。相比之下,cpu与系统内存共享带宽,在处理大型数据集时容易遇到内存瓶颈。

当然,需要指出的是,gpu并非在所有ai和机器学习任务中都是最优选择。对于某些小规模的、计算不密集的任务,使用cpu可能更简单高效。而且,gpu编程对开发者的要求较高,需要使用cuda等专门的编程框架,优化难度大。相比之下,cpu编程可以使用通用编程语言,开发门槛相对较低。

ilya去哪儿了?

作为openai联合创始人兼首席科学家,ilya sutskever消失在公众的视野中已长达数月。所以当openai发布与黄仁勋的合照后,热心的网友们不禁发问:ilya是不是藏在旁边的箱子里呢?

更是有网友表示:修复了openai发的照片,这下它完整了。


精选推荐

  1. 完全免费白嫖gpt4的三个方法,都给你整理好了!

  2. ai领域的国产之光,chatgpt的免费平替:kimi chat!

  3. kimi chat,不仅仅是聊天!深度剖析kimi chat 5大使用场景!

  4. 我用ai工具5分钟制作一个动画微电影!这个ai现在免费!

  5. 当全网都在疯转openai的sora时,我们普通人能做哪些准备?——关于sora,你需要了解这些!

  6. 文心一言4.0 vs chatgpt4.0哪家强?!每月60块的文心一言4.0值得开吗?

  7. chatgpt和文心一言哪个更好用?一道题告诉你答案!

  8. 字节推出了“扣子”,国内版的coze,但是我不推荐你用!

  9. 白嫖gpt4,dalle3和gpt4v - 字节开发的coze初体验!附教程及提示词prompt

  10. 2024年了你还在用百度翻译?手把手教会你使用ai翻译!一键翻译网页和pdf文件!


都读到这里了,点个赞鼓励一下吧,小手一赞,年薪百万!😊👍👍👍。关注我,ai之路不迷路,原创技术文章第一时间推送🤖。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com