海通证券-半导体产品与半导体设备行业跟踪报告:OpenAI算力需求测算-230215

《海通证券-半导体产品与半导体设备行业跟踪报告:OpenAI算力需求测算-230215(4页).pdf》由会员分享,可在线阅读,更多相关《海通证券-半导体产品与半导体设备行业跟踪报告:OpenAI算力需求测算-230215(4页).pdf(4页精品完整版)》请在悟空智库报告文库上搜索。
国内终端AI芯片落地速度低于预期,国产替代确定性高,可借助Chiplet等技术共同构筑生态,并在数据应用层面进行追赶。2022年10月7日,美国BIS发布《出口管制条例》,限制向中国芯片制造商出口先进芯片和生产先进芯片的设备,根据环球时报微信公众号,英伟达A100型芯片已被美国商务部添加到出口管制名单中,而英伟达GPU在AI应用中可替换性较低,因为芯片处理AI负载、图形计算等多重功能。在海外富有先进性能的高算力芯片出口受限情况下,国内终端AI芯片落地速度普遍低于预期,难以落地主要归因于:应用效果较好的模型对芯片算力要求高,而现阶段芯片功耗及成本无法满足需求,与此同时芯片产品迭代时间较长。我们认为,在当前中美关系背景下,AI芯片国产替代确定性较高,而国外AI芯片在底层算法上具备核心优势,国内则可在应用层面进行追赶,此外,平衡芯片性能、良率、成本矛盾的技术包括Chiplet等也将共同构筑AI硬科技端生态,加速AI芯片实现落地。
GPT-3训练阶段成本预计在500万美元/次。根据电子技术应用ChinaAET微信公众号援引Open AI测算,自2012年起,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,而ChatGPT训练阶段总算力消耗约为3640 PF-days(即1 PetaFLOP/s效率跑3640天)。根据普超资本微信公众号,GPT-3训练成本预计在500万美元/次。
Nvidia DGXA100640GB服务器为ChatGPT所需的标配硬件。根据环球零碳微信公众号,我们以单NVIDIAA100 GPU在ChatGPT上打印一个单词需要约350ms进行假设。根据Nvidia官网产品手册,Nvidia DGXA100640GB含8个A100 GPU及1个AMDRome 7742处理器,因此我们以上述硬件作为测算基础。
运营阶段,我们预计ChatGPT年GPU/CPU需求空间分别在7000万美元及778万美元。根据CCTV4微信公众号,截至23年1月,ChatGPT积累了1亿月活跃用户。我们假设后续稳定运营时期,总访问量维持在2000万次左右,咨询量以8个问题计算,总咨询量在1.6亿次。单个字大约在A100 GPU上消耗350ms,因此总GPU运行小时约为466667小时。因此,对GPU/CPU单日同时运转的耗用量分别为19444/4861个。对应现有价格及替换周期假设,我们预计运营阶段,ChatGPT年GPU/CPU需求空间分别在7000万美元及778万美元。
投资建议:建议关注:模型(商汤-W、云从科技-UW、科大讯飞)/算力芯片(寒武纪-U、景嘉微、海光信息)/接口芯片(澜起科技)/CPUIP授权、SoC(国芯科技)/服务器(浪潮信息)/IDC(宝信软件、润泽科技)
风险提示。AI终端应用发展不及预期;AIGC技术发展不及预期;半导体国产替代进程不及预期;测算中存在一定的假设,故结果具有一定的不稳定性。