“卖水者”英伟达成资本市场宠儿
2023-06-08 11:18:19 来源: 金融投资报

■ 刘柯


【资料图】

本周人工智能再度成为全球的焦点,而这次的主角并非 Chat GPT,而是上游的“卖水者”英伟达。从长远角度看,无论全球哪个大模型能成功或者不成功,整个人工智能的发展以及元宇宙、下一代互联网技术的发展都离不开算力底座的支持,所以英伟达能成功也绝非偶然。

如果说人工智能是人类真正跨入硅基时代的基础,那么,英伟达就是硅基时代最大的赢家,英伟达的GPU是AI时代最重要的基础设施之一,GPU提供算力,是AI时代不折不扣的“卖水者”。2020年,全世界运算AI的云计算与数据中心有80.6%都在用英伟达的GPU驱动;2021年,在全球前500个超算中有七成由英伟达的芯片驱动,在最新的超算系统中,此比例超过九成。目前,运行ChatGPT的微软数据中心用了上万块英伟达的H100 GPU,更先进的DGXGH200已投入量产并将于年底上市,性能将是DGX A100的250倍!

英伟达凭借GPU服务器的强大竞争优势已经把竞争对手英特尔、AMD、高通等远远甩在了后面,犹如当年高通凭借移动芯片超越英特尔一样,现在GPU算力服务器的发展趋势就是替代传统的CPU服务器。凭藉着这一独门绝技,英伟达最近一两年成为IT产业界和资本市场的双重宠儿,市值即将跨越1万亿美元大关。

当然,在这股席卷全球的人工智能大潮中,我们也不甘落后,从最高的指导政策和实际落地的产业政策上都有了突破,最典型的就是最近上海、北京和深圳这些一线城市出台的人工智能产业规划。

上海提出要建设人工智能“上海高地”,发挥人工智能的“头雁效应”,打造一批具有影响力的人工智能产业集群。

北京提出要加快建设具有全球影响力的人工智能创新策源地,到2025年北京人工智能核心产业规模将力争达到3000亿元,持续保持10%以上增长,辐射产业规模将超过1万亿元。

深圳发布《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023—2024年)》,提出将发挥政府投资引导基金作用,统筹整合基金资源,形成规模1000亿元的人工智能基金群。鼓励人工智能企业在境内外多层次资本市场开展股权融资。

产业端也没有闲着,而且落地场景更为具象,跟进企业也越来越多。如三六零上月末推出了360智脑·视觉大模型及多款AI硬件新品,现阶段主要聚焦开放目标检测(OVD)、图像标题生成、视觉问答(VQA)三项能力;行业新锐则发布了炎帝大模型,企业可以用这些硅基劳动力来做短视频生成、直播生成、电影/电视剧生成、甚至数字永生等方面的工作;网易有道、学而思、科大讯飞等也都发布了自家大模型成果在教育领域的应用。

人工智能渐入中局。前面说了,所有的大模型数据训练和实际使用都需要算力的支撑,所以,AIGC的成败还在算力。算力基座包括“算”、“储”、“连”三部分。

在“算”这个领域,英伟达的GPU芯片独孤求败,外围产业链能跟进的就是高速光模块。目前英伟达一个H100 GPU 需要3至4个 800 G 光模块,一个 DGX GH200则需要16至18个800G光模块。预计今年全年全球的800G 需求将达到80万只至90万只,明年需求将有望达到250万只至300万只。市场的需求是实实在在的,仅今年一季度全球800G光模块已经出现了三次追加订单的情况。由于光模块中国占据全球60%以上的产能,因此部分头部企业已经受益于此次需求的爆发,A股市场能生产800G光模块的中际创旭、新易盛、剑桥科技等都是大牛股。

在“储”这个领域,需求也是爆发式增长,因为算力的基础是数据,需要大量的存储。如首批集成英伟达GH200超级芯片的系统采用NVLink Switch System组合256个GH200超级芯片,使其能够作为单个GPU运行,提供高达1exaflops的性能以及144 TB的共享内存。这意味着它的内存是Nvidia于2020年推出的上一代DGX A100超级计算机的近500倍。

最后说一下还没有被市场挖掘的“连”。不管算力再怎么强大,要落实到应用层面就需要无损的数据传输。因此,我们看到,上周末主营数据中心局域网连接的迈威尔科技出现了大涨。根据英伟达推荐配置,建议在服务器接口上连接1个800G光模块,通过 twin-port 连 接 两 根 光 缆(MPO),分别插在两个交换机上;也就是说,高密度光纤连接(MPO)的需求是与400G、800G高速光模块匹配的。实际上,MPO产品已经广泛地运用在超算中心和大数据中心之中,只是目前AIGC对算力的需求更大,对无损数据传输的条件更高,这样也势必引发算力基础建设扩容的时候对MPO的连接需求提升。

关键词:
责任编辑: 梅长苏