首页攻略热点新闻正文

ChatGPT火爆出圈后最大的赢家——英伟达

发布时间:2023-02-22 14:27:55 来源:其它 作者:未知

当一群嗜血的互联网投资客、互联网大鳄开始争抢类ChatGPT应用的入场券时,芯片玩家已悄然稳坐ChatGPT的牌桌

AI训练芯片“一哥”英伟达被视作云计算资本支出重心转向人工智能(AI)的最大受益者,韩国政府也在ChatGPT热潮中加大AI芯片扶持力度。

今年1月3日至今,英伟达股价已上涨49%,市值从3522亿美元增至5261亿美元(折合增长了约1.19万亿人民币);据公开信息显示,英伟达CEO黄仁勋的财富同期增长了60亿美元

如此“躺赚”,难怪黄仁勋谈到ChatGPT时满面笑容,直夸其意义堪比“iPhone时刻”。

ChatGPT火爆出圈之后,不少公司及投资者都加大了对生成式AI的投入,然而ChatGPT的成本不菲,训练一次的费用在几百万到上千万不等,背后需要强大的算力,目前AI最强算力就是GPU了。

GPU计算这个市场几乎是NVIDIA的天下,就连ChatGPT都是在微软的云计算平台下用NVIDIA的A100加速卡进行训练的

2022年11月份,微软还跟NVIDIA达成了协议,双方将合作建造一台大型云AI计算机,将微软的Azure与NVIDIA的GPU结合起来,以“帮助企业训练、部署和扩展AI,包括大型、最先进的模型”。

受益于此,NVIDIA的股票最近2个月来一直在涨,股价已经升了52%之多,市值重回5300亿美元左右,虽然距离一年来的巅峰还有点距离,但是趋势已经确定,随着GPU的采购增加,还会继续往上涨。

ChatGPT类产品的开发成本有多高呢?据外媒报道,分析师称ChatGPTBeta版本使用了10000个英伟达GPU训练模型,新一代GPT-5大模型正在25000个英伟达GPU上训练。

ChatGPT是基于大模型GPT-3.5训练出的对话式AI模型。GPT-3.5跟前代GPT-3一样有1750亿个参数。GPT-3训练所需算力达3650PFLOPS-days,训练成本约140万美元。参数更多的大模型训练成本则介于200万~1200万美元之间。

据专家测算,标准大小的ChatGPT-175B大概需要625台8卡DGX A100服务器进行训练,如果愿意等它跑1个月,200台8卡也够用。针对ChatGPT-175B的服务器成本(主要考虑GPU和CPU)约为3~5亿元。

相对来说模型迭代成本没那么高。越往后迭代,大模型的训练成本可能会显著下降。自2020年5月GPT-3发布以来,与GPT-3性能相当的模型,训练和推理成本已经降低了超过80%。

微软、谷歌、百度等搜索巨头都计划将ChatGPT同类技术整合到它们的搜索引擎中。据外媒估算,将这类技术集成到谷歌的每个搜索查询中,需要超过51万台A100 HGX服务器和总共超过410万个A100 GPU,服务器和网络总成本的资本支出将达到1000亿美元。

这些支出的相当一部分,将流入英伟达的口袋

点击收藏本站,随时了解时事热点、娱乐咨询、游戏攻略等更多精彩文章。

最新发现

相关资讯

新闻热榜

热门游戏

精彩专题