当前位置:首页 > 装机升级 > 内存硬盘 > 新闻
ChatGPT大火或导致全球 GPU 短缺,还带火了这款内存
  • 2023/2/17 10:01:50
  • 类型:原创
  • 来源:电脑报
  • 报纸编辑:电脑报
  • 作者:
【电脑报在线】作为当前最火的 AI 应用,人工智能聊天机器人 ChatGPT 已经成为各大科技巨头必争之地,陆续都会推出类似的产品,而这也带火了硬件行业,受益最大的是 GPU显卡。

作为当前最火的 AI 应用,人工智能聊天机器人 ChatGPT 已经成为各大科技巨头必争之地,陆续都会推出类似的产品,而这也带火了硬件行业,受益最大的是 GPU显卡。


有报道显示,为了创建和维持 ChatGPT 所需要的人工智能分析数据的庞大数据库,开发者使用了 10000 个英伟达 GPU 进行相关训练。而且与训练不同的是,实际支持应用时所需要的 GPU 会更多。


外媒在报道中提到,为了满足当前的服务器需求,OpenAI 已经使用了约 2.5 万个英伟达 GPU,而随着未来需求的增加,这一数字还将继续增长。


若将 ChatGPT 整合到搜索服务中,那使用的 GPU 将会是海量的。


外媒预计,将当前技术应用到每一次的 Google 搜索中,需要 512820 台 A100 HGX 服务器,将需要超过 410 万个 A100 GPU。因此,ChatGPT 的爆火可能会使全球再度面临 GPU 短缺的挑战,出现短缺的时间可能还会早于预期


此外,英伟达 GPU 需求也使得三星和 SK 海力士的 HBM DRAM 吃到了流量,正在发愁内存跌价的韩国厂商天降惊喜,找到赚钱的地方了。


在AI算力中,除了GPU性能,内存也非常重要,NVIDIA的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GB HBM2内存。


随着 ChatGPT 受宠,三星、SK 海力士两家内存厂商接到了越来越多的 HBM 订单,NVIDIA 已经要求 SK 海力士生产最新的 HBM3 内存。


其他供应商,如英特尔也致力于在其下一代产品中集成 HBM3,这意味着 SK 海力士可能无法跟上需求。因此,业内人士指出相比当前最好的 DDR 内存,HBM3 的价格已经涨了 5 倍。


目前 HBM 内存市场上,SK 海力士公司占据最大的优势,该公司早在 2013 年就跟 AMD 合作开发了 HBM 内存,整体市场份额在60-70%之间。


三星近年来也加大了HBM内存的投入,还跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。


编辑:崔崔

本文出自2023-02-13出版的《电脑报》2023年第06期 E.硬件DIY
(网站编辑:jiajia)