语言选择:

AI芯片短缺时代已经到来?

发布时间:2023-05-15 09:00浏览次数:times

2023年伊始,Chat GPT掀起了人工智能的浪潮,似乎表示我们提及多年的人工智能时代,即将来临。面对这一变革,有的人恐慌,有的人淡定,有的人不知所措。


然后对于我们从事涉及芯片行业的人来说,更担心的是AI芯片走向的问题,更多的人工智能产品出现,是否有足够的AI芯片供应,现有的芯片是否能够满足人工智能产品的需求呢?我们是否已经进入AI芯片的短缺时代呢?

 

AI芯片市场现状

随着现象级AI产品Chat GPT的走红,以大型语言模型为代表的前沿AI技术走向聚光灯之下。不少相关企业都接连推出了自己的大模型,百度、阿里、360、商汤等国内企业纷纷宣布入局AI大模型。

 

为啥需要大量的AI芯片呢?

AI芯片可分为GPU(图形处理器)、ASIC(专业集成电路)、FPGA(现场可编程门阵列)和类脑芯片大模型对于GPU的要求极高。主要是数量要求和性能要求,也就是说,不是每一款GPU都是符合要求的,好不容易生产出来的芯片可能是个“废物”。

据网上的消息,Chat GPT每天在计算硬件成本方面的运营成本为69万美元。Open AI需要约3,617台HGX A100服务器(2.8万个GPU)来为Chat GPT提供服务。

 

哪些企业在抢AI芯片?

国内的互联网公司几乎都在抢购,不管自己之前有没有人工智能产品,都在进行语言模型训练。比如百度的文心一言,阿里的通义千问华为的盘古系列AI大模型科大讯飞 1+N认知智能大模型昆仑万维天工知乎知海图AI等。另外好像腾讯也有新的动作,具体模型还未知。

不过,国内如果想要直接训练出一个GPT-3级别的大模型,最少需要3000到5000枚A100级别的AI芯片。以保守情况估计,目前国内A100级别的AI芯片缺口在30万枚左右。

 

除了国内企业,国外企业的需求更甚,微软、谷歌、苹果等公司,都有自己的大语言模型,马斯克的公司,为了推进推特内部的新AIGC项目,直接购买了约1万个GPU。

 

AI芯片价格暴涨?一芯难求?

截止5月5日,英伟达最新发布的旗舰AI芯片H100在ebay上的售价达到4万美元一枚。国内方面,AI应用的主力芯片——由英伟达2020年发布的A100,价格也在飞速飙升。从年初到现在的5个月内,A100的价格从原来的6万元一路飙升到10万元,涨幅超过50%。英伟达A100显卡,价格也在同步上涨。

对于用于AI的特定类型的芯片,实际上已经出现了繁荣和一些已经变得明显的短缺。而且似乎对这些类型芯片的需求只会增长。

 

AI芯片产能如何?

作为最强GPU,英伟达选择了拥有全球最先进制程的台积电进行独家代工。具体来看,英伟达的A100、A800采用的是台积电7nm工艺、H100则是由台积电5nm定制版(4N)打造。

今年Chat GPT的火热带来芯片产能的又一暴涨需求。但是台积电本身产能有限,再加上原有订单,导致AI芯片产能完全跟不上市场需求。

 

再加上国际政策,贸易摩擦等因素,受到美国禁令的影响,英伟达直接对台积电下了“超级急件(super hot runs)”订单。这批“超级急件”总量约5000片,交期将大幅缩短,从原本预估的5至6个月,压缩为2至3个月,最快10月底至11月初开始交货。这就表示即使英伟达现在下单台积电,正常情况下GPU的量产仍需要一段时间。


现实的情况就是想买买不到,需求旺盛产能过低,估计未来AI芯片慌还会持续一段时间。


声明:网站文章由长龙鑫电子http://clxet.com/原创首发,转载或者引用本文内容请注明来源!

长龙鑫微信扫码 关注我们

  • 24小时咨询热线15915310670

  • 移动电话15915310670

Copyright © 2002-2022 长龙鑫 版权所有 Powered by EyouCms 地址:广东省深圳市宝安区新安街道创业二路 新一代信息技术产业园C座623号 备案号:粤ICP备17052896号 网站地图