当前位置: 代码网 > 科技>人工智能>动态 > 携手NVIDIA等40余家国内外伙伴,飞桨硬件生态狂飙

携手NVIDIA等40余家国内外伙伴,飞桨硬件生态狂飙

2024年08月06日 动态 我要评论
深度学习框架与 AI 硬件厂商,相辅相成、共同发展。百度[飞桨](https://www.oschina.net/action/visit/ad?id=1185 "飞桨")与 NVIDIA 等 40 多家硬件伙伴正在践行这一理念。 备受关注的 NVIDIA GTC 2023 大会已经结束,NVIDIA CEO 黄仁勋依然给所有人带来了震撼,搬出了为 ChatGPT 准备的芯片,向世人展示了 GPU 持续在算力上赋能大模型乃至整个深度学习领域的巨大潜力。 大会期间,黄仁勋还与 OpenAI 联合创始人、首席科学家 Il...

深度学习框架与 ai 硬件厂商,相辅相成、共同发展。百度与 nvidia 等 40 多家硬件伙伴正在践行这一理念。

备受关注的 nvidia gtc 2023 大会已经结束,nvidia ceo 黄仁勋依然给所有人带来了震撼,搬出了为 chatgpt 准备的芯片,向世人展示了 gpu 持续在算力上赋能大模型乃至整个深度学习领域的巨大潜力。

大会期间,黄仁勋还与 openai 联合创始人、首席科学家 ilya sutskever 进行了一场深度对话,他们一致认为深度学习的强大能力已经改变了世界,真正推动了技术的进步。

的确,近年来,深度学习技术正在推动整个 ai 行业进入到一个全新的阶段。ai 领域的技术创新和产业发展离不开深度学习框架和平台,它联动了 ai 产业链上下游众多企业和用户,通过持续降低应用门槛将 ai 技术传递给千行百业,推动 ai 应用大规模落地。

作为国内 ai 领头雁的百度,其产业级深度学习开源开放平台集核心框架、产业级模型库、开发套件与工具组件于一体,其中百度生成式 ai 产品文心一言正是孕育自产业级知识增强大模型文心。截止 2022 年 11 月,已经凝聚了 535 万开发者,服务了 20 万家企事业单位,创建了 67 万个 ai 模型。

百度依托平台,围绕着技术、生态和产业构建了全方位、多层次的深度学习发展格局。生态建设则是联动各方实现技术融合和落地的关键步骤,而作为生态建设重要的一环,硬件生态正是联合硬件厂商搞好 ai 芯片的适配与优化,最终达成合作共赢。

作为全球 gpu 巨头的 nvidia,成为了百度天然的合作伙伴。 nvidia 自身也非常重视中国市场尤其中国的生态伙伴,成为其在世界上支持的三大深度学习框架之一,更有专门的工程团队来赋能生态。

过去数年,与 nvidia 在硬件生态建设上一直保持着全面深度的合作,做了大量的开发与优化工作,并通过技术共研开拓了众多软硬件协同产品与功能。尤其在 2022 年,双方的合作迈入了新的阶段。

树立硬件生态标杆

与nvidia深拓合作伙伴关系

我们知道,随着深度学习的快速发展尤其是大规模机器学习模型的涌现,ai 算力需求的增长达到了新的高度。这无疑给硬件厂商带来巨大挑战,要求他们生产出非常强大的 ai 芯片。同时,ai 芯片与深度学习框架的融合优化,才能带来前所未有的加速,将性能发挥到极致。

不过,就拿 pytorch 等常用开源深度学习框架来说,开发团队不接受硬件厂商的代码进入主干。这就导致硬件厂商支持新版本框架的成本高昂,只能有选择地支持重点版本。这样一来,硬件厂商的 ai 芯片与深度学习框架之间存在适配问题,ai 基础软硬件产业链上下游也就无法实现高效的协同发展。

则不然,从 2020 年开始致力于 ai 芯片的适配,与国内外硬件厂商展开深度合作,共同开发更加便捷的核心框架,构建统一的硬件接入方案。通过与广大硬件厂商构建合作生态,真正发挥出 ai 芯片的算力。以 nvidia 为例,它早在 2020 年 5 月就加入了「硬件生态圈」计划,后续更与展开了一系列深度合作。

具体到硬件适配上,与 nvidia 主要在四个方面进行合作。在数据处理上帮助集成 dali,在大规模训练上支持各类数据格式以及 asp、cuda 等算子函数 api,在优化推理上开发 paddle-trt、deep learning examples,在规模部署上集成了 nccl、开发了 triton paddlepaddle backend。多样化适配使得开发者的高性能推理训练成为可能,也为其与的进一步合作打下了基础。

2022 年,开启与硬件生态伙伴全面共创的一年。在 5 月 20 日的 wave summit 2022 深度学习开发者峰会上,携手 nvidia 在内等十余家国内外硬件厂商发布了「硬件生态共创计划」,通过共享共创打造繁荣的 ai 生态。在此次峰会上,发布了其与 nvidia 的共研共创合作方案。

具体地,针对硬件适配依然存在的高门槛以及用户的多层次需求,双方在已有合作的基础上开发了三大主要产品,包括了 nvidia ngc paddlepaddle container —— ngc 容器、nvidia deep learning examples —— 深度学习模型示例、以及 nvidia dli (deep learning institute)—— 共建课程。对于使用 nvidia gpu 平台的用户,这些举措可以使他们获得绝佳用户体验与极致性能。

首先针对开发者用户的一些痛点需求,比如使用 nvidia 最新软件栈开发、训练、部署时需要大量手动配置工作,工程挑战巨大。因此**联合 nvidia 开发了 ngc 容器,针对 nvidia gpu 加速进行优化,最大程度释放框架在 nvidia 最新硬件上的算力。**

ngc 容器还包含了用于加速 etl (dali、rapids)、训练(cudnn、nccl)以及推理(tensorrt)工作负载的软件,实现了与 nvidia 软件栈的无缝集成与性能优化。

有了 ngc 容器,用户在快速开启 ai 应用的同时,还能在 ai 训练和推理任务上享受 +nvidia 带来的飞速体验。此外通过 nvidia ngc 完善的开发体系、质量管理、测试流程、文档规范、安全扫描等,双方开发了基于 nvidia gpu 平台最好的开发环境。

作为 nvidia 优化的工业级模型库,nvidia deep learning examples 涵盖了机器人、数字孪生、金融等不同行业的模型,目标是让使用 nvidia gpu 平台的开发者复现 nlp 和 cv 等领域拥有极致性能的经典模型。

2022 年 10 月,nvidia deep learning examples 仓库上线了基于实现的 resnet50 模型,相关示例全面适配各类 nvidia gpu 以及单机单卡、单机多卡等各种硬件拓扑,实现了性能极致优化。值得一提的是, resnet50 模型的训练速度超过了 pytorch 版 resnet50。之后还支持了 bert 模型,后续将陆续支持 pp-yoloe  等模型。

为了更好地提高推训性能并简化代码,nvidia 深度学习培训中心(dli)不仅准备了系列免费课程,还联名推出 dli 课程证书,为开发者的能力和职业发展提供了权威证明。 例如与 nvidia 联合打造了《使用 paddlepaddle 与 tensorrt 完成深度学习优化与部署》课程,让开发者感受基于 paddlepaddle 与 tensorrt 的优化部署最佳体验。

2022 年 11 月 30 日,在 wave summit 2022 深度学习开发者峰会上,又携手 nvidia 等 12 家硬件伙伴发布了**生态发行版**。对于用户而言,当在 nvidia gpu 平台上跑时,会提供专门的软件版本,使开发者享受更好的软硬一体化体验。至此与 nvidia 的硬件生态合作又进了一步。

在着力打造繁荣共赢生态、促进软硬件协同发展的过程中,nvidia 是重要的参与者和见证者,并成为合作生态中最为深入和标杆性的案例。随着双方合作内容的不断丰富,满足了 ai 开发者的多层次需求。同时,与 nvidia 的深度合作也为国内其他硬件厂商提供了一种可参照的合作模式。

共聚、共研、共创

探索与硬件厂商共赢之路

从与 nvidia 的合作中可以看到,硬件生态建设这一环做得好不好,会深刻地影响到深度学习框架自身的通用性、硬件厂商 ai 芯片的效率以及在 ai 领域的广泛应用。正是这种双方的痛点需求为与硬件厂商的生态合作做好了铺垫

作为国内市场综合份额第一的深度学习平台,一直以来非常注重与国内外硬件厂商的合作,通过与他们的紧密联系持续拓展硬件生态。截至目前,与深度融合优化的国内外硬件厂商数量已经超过了 40 家

对于来说,其与硬件生态伙伴的合作是在摸索中前进,不断地创新合作模式,经历了 2020 年的「共聚」、2021 年的「共研」、2022 年的「共创」三个阶段。每个阶段的侧重点不同,合作伙伴数量逐年增多,合作内容也更加广泛和深入。

首先回到 2020 年,率先对接了国内外领先的 cpu、gpu、asic、服务器等硬件厂商,并于 5 月联合 intel、nvidia、寒武纪、浪潮等 13 家国内外顶级硬件厂商发布了「硬件生态圈」计划,为后来的广泛硬件生态合作打好了基础

当时,除了持续增强硬件厂商对平台投入的信心,还通过金融、能源等行业的最终用户来驱动硬件厂商与适配,建立起与他们的规范流程、专门团队等。这些举措释放出了携手硬件厂商共建硬件生态的决心,并启动了与重点厂商的硬件适配和技术优化工作。

在接下来的 2021 年,开始与硬件伙伴的软硬一体联合优化,进入到了「共研」阶段。不过,在执行硬件适配与技术优化过程中,双方也遇到了挑战。一是硬件厂商软件栈接入方式多样(算子库、图接入、编译器等),适配技术方案复杂。国内厂商的 ai 软件栈建设起步晚,给实际适配带来新的挑战;二是如何使得硬件厂商以较低的成本接入。

针对这些挑战,结合对硬件厂商软件栈的理解设计了硬件对接方案,包括自定义算子库接入、自定义通信库等多项基础软件改造,极大降低了硬件厂商适配成本。在该阶段,支持的国产硬件数量实现了第一

进入到 2022 年,在 2021 年技术适配成果的基础上进一步拓展与硬件伙伴的合作。希望更多的硬件开发者使用进行 ai 应用创新,硬件厂商也希望引入定制版的框架、模型库来丰富自身 ai 软件栈,因此双方的合作进入到全面的「共创」阶段

首先是上文提到的「硬件生态共创计划」,旨在与硬件生态伙伴在联合研发、资源共享、联合授权、培训赋能等四个维度全面合作,更好地服务开发者,加速 ai 产业落地,实现生态繁荣共赢。

在联合研发环节,与硬件伙伴成立技术研发虚拟联合团队,共同打磨基础软件栈,推进硬件与的适配与性能优化工作。尤其针对国产 ai 硬件与深度学习框架持续适配与升级成本较高的问题,推出算子接入、子图接入、编译器接入等多种方案,与厂商共建持续集成基础设施,接收厂商适配的代码。在全球前三大框架中,是唯一对所有硬件厂商开放合作、接受所有硬件厂商提交代码的框架

此外,还联合硬件伙伴共同推出**生态发行版**(针对特定ai硬件,定制优化的框架和模型库),大大提升模型在各类 ai 硬件上的训练推理性能,为开发者提供更多更好选择。

在资源共享环节,与硬件生态共创计划伙伴共享推广宣传资源,包括共同撰写技术稿件,通过博客、论坛等社交媒体资源联动推广。还对生态伙伴联合授权,将与硬件伙伴联合优化好的方案优先推荐给生态伙伴,并基于硬件平台联合开发一体机,提供功能全面、便捷高效、稳定可靠的一站式 ai 服务。

在培训赋能环节,联合生态伙伴开发 + 硬件使用开发教程,与硬件厂商在双方的学习与实训社区提供系列课程及联名认证证书,如上文与 nvidia 联合开发的共建课程。还与硬件伙伴在 ai studio 中开设厂商专区,为国内深度学习开发者提供体验更多 ai 硬件的机会。目前 ai studio 是国内最大的人工智能学习与实训社区,注册用户超过了 300 万。

从共聚、共研到共创,一路走来,在硬件生态建设上持续深化与硬件伙伴的合作方式与内容,结合他们的实际需求,通过技术创新持续降低适配的成本,并利用产品共建、生态运营等途径保持适配后的商业价值。对于国内硬件厂商而言,已经具备相当规模的生态是其快速拓展硬件市场的契机,因此应勇于拥抱并创新自身与的生态合作,实现双赢。

作为整个 ai 产业链的重要一环,一直以来的开放合作态度是其硬件生态持续取得成果的重要前提,接入 ai 芯片时联合硬件伙伴优化 ai 软件工具链设计,充分满足开发者在应用时对算力、模型和算力等各个层面的需求,降低开发、训练和部署的负担,带来低门槛、简易的使用体验。

深度学习框架和硬件厂商这两个主体的高效协作还增强了整个 ai 行业的活力,产生真正的商业价值,在不断健全、良性的硬件生态环境中推动 ai 应用规模化落地。未来将持续开源开放,找准与硬件厂商利益契合点,在更广泛和深入的软硬协同探索中更好地服务开发者。

最后,在 nvidia gtc 2023 大会上,百度 ai 技术生态总经理马艳军等四位专家带来了精彩的内容分享。

参考链接

https://www.eet-china.com/mp/a134727.htmlhttps://www.eet-china.com/mp/a155955.htmlhttps://www.jiqizhixin.com/articles/2023-01-10

https://www.jiqizhixin.com/articles/2023-02-01-5

https://www.jiqizhixin.com/articles/2022-09-07-4

转载来源

文章转载自公众号【机器之心】

原文链接:https://mp.weixin.qq.com/s/4_wx8p3fhrflhtrsysmm8w

获取更多技术内容~

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com