当前位置: 代码网 > 科技>人工智能 > 马斯克:xAI 训练 Grok-3 大模型用了 10 万块英伟达 H100 芯片

马斯克:xAI 训练 Grok-3 大模型用了 10 万块英伟达 H100 芯片

2024年07月02日 人工智能 我要评论
马斯克表示,训练 AI 聊天机器人需要数据集,而且从现有数据中清除大型语言模型 (LMM) 的工作量很大。

7 月 2 日消息,马斯克已经宣布其人工智能初创公司 xai 的大语言模型 grok-2 将于 8 月推出,将带来更先进的 ai 功能。虽然 grok-2 还没亮相,但马斯克已经开始为其 grok-3 进行造势。

马斯克表示,训练 ai 聊天机器人需要数据集,而且从现有数据中清除大型语言模型 (lmm) 的工作量很大。他还谈到了 openai 模型输出训练的几个问题。

他透露 xai 的 grok-3 用了 10 万块英伟达 h100 芯片进行训练,预计将于年底发布,相信它会“非常特别”。

h100 是英伟达开发的专门用于处理大语言模型(llms)数据的 ai 芯片。每块英伟达 h100 人工智能芯片的价格估计在 3-4 万美元(当前约 21.9 - 29.2 万元人民币)左右,批量购买的话可能会有折扣。

我们简单计算可知,xai 这里的 10 万块英伟达 h100 价值 30-40 亿美元(代码网备注:当前约 218.68 - 291.57 亿元人民币)。马斯克之前曾提到特斯拉今年从英伟达的采购额估计将在 30-40 亿美元之间,合理推测 xai 这里用的是特斯拉购买的英伟达芯片进行训练。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com