关闭 家电网微信二维码

首页| 新闻| 产品| Discover| 智能手表| 数字家庭| 智能盒子| 空调| 电冰箱| 洗衣机| 厨房卫浴| 生活电器| 专题| 微发现| 标签| 论坛| @家电网

首页| 新闻| 产品| Discover| 智能手表| 数字家庭| 智能盒子| 空调| 电冰箱| 洗衣机| 厨房卫浴| 生活电器| 专题| 微发现| 标签| 论坛| @家电网

首页 消费电子 数码天下 正文

ChatGPT多烧钱?大模型训练一次1200万美元

字号:TT 2023-02-20 08:28 来源:IT之家

家电网-HEA.CN报道:ChatGPT 风靡全球后,科技巨头们纷纷入局,生成式 AI 其背后以大模型为基础的人工智能成为业界投入的方向。

ChatGPT 风靡全球后,科技巨头们纷纷入局,生成式 AI 其背后以大模型为基础的人工智能成为业界投入的方向。

IT之家了解到,所谓“大模型”,通常是在无标注的大数据集上,采用自监督学习的方法进行训练。之后在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练,就可以满足新应用场景的需要。

然而,训练通用大模型非常“烧钱”。据国盛证券报告《ChatGPT 需要多少算力》估算,GPT-3 训练一次的成本约为 140 万美元,对于一些更大的 LLM(大型语言模型),训练成本介于 200 万美元至 1200 万美元之间。以 ChatGPT 在 1 月的独立访客平均数 1300 万计算,其对应芯片需求为 3 万多片英伟达 A100 GPU,初始投入成本约为 8 亿美元,每日电费在 5 万美元左右。

如果将当前的 ChatGPT 部署到谷歌进行的每次搜索中,需要 512820.51 台 A100 HGX 服务器和总共 4102568 个 A100 GPU,这些服务器和网络的总成本仅资本支出就超过 1000 亿美元。

国盛证券认为,在公有云上,对于以谷歌等全球科技大企业而言,百万至千万美元级别的训练成本并不便宜,但尚在可接受范围内、并非昂贵。

(家电网® HEA.CN)

责任编辑:编辑K组

已有0人参与

网友评论

用户名: 快速登录

家电网微博


热点推荐