首页 > 个股 > 正文

全球第五,破万亿市值!这家厂商正在垄断AI产业

2023-06-02 00:59:46来源:凯恩斯  

美国芯片制造商英伟达市值一度突破1万亿美元,成为首家市值达到这一里程碑的芯片企业。是美股市值第五大公司。


(资料图)

人工智能以及芯片行业今年的火热程度已经不言而喻了,英伟达股价上涨一部分因素受高于预期的业绩指引推动。英伟达的第一季度每股收益达到1.09美元,高于92美分的市场预期,第二季度营收指引高达110亿美元,比71.5亿美元的市场预期高出近40亿美元。市值上,英伟达也不便宜了,未来12个月预期市盈率高达47.4倍。

现在股价的上涨更多是受到未来生成式人工智能推动英伟达产品需求大幅上升,为英伟达创造了更多的市场增长潜力和预期。

从英伟达的方向热度来看,长远的领域可能还比较早,现在算力GPU这些基础才是最重要的。今天聊聊英伟达。

在这场AI大模型的战局里,已经有不少厂商参与了,像OpenAI、微软、谷歌,国内百度、阿里、华为、商汤等。但是掩藏在背后的GPU巨头英伟达,要藏不住了,尤其是英伟达A100、H100,是当前为AI大模型提供算力的“主力”。掌握着“算力”也得到了不少关注。如今要参与训练大模型了。

前两天,英伟达创始人兼CEO黄仁勋在台北电脑展COMPUTEX 2023上,公布涉及加速计算和人工智能(AI)的多项进展。

推出了采用英伟达最新GPU和CPU的系统巅峰之作——新型大内存AI超级计算机DGX GH200,涵盖了英伟达最先进的加速计算和网络技术。是首款将Grace Hopper超级芯片与英伟达NVLink Switch系统搭配的超级计算机,通过采用新互连方式,将256个Grace Hopper超级芯片连接在一起,使它们能像单个巨型GPU一样协同运行,从而提供了1EFLOPS的性能和144TB的共享内存,比2020年推出的上一代DGX A100 320GB系统的内存多出近500倍。

同时,还在打造自己的基于DGX GH200的大型AI超级计算机NVIDIA Helios,以支持其研究和开发团队的工作。它采用4个DGX GH200系统,每个都将与英伟达Quantum-2 InfiniBand网络连接,带宽高达400Gb/s,以提高训练大型AI模型的数据吞吐量。Helios将包括1024颗Grace Hopper超级芯片。

如今GH200 Grace Hopper超级芯片已全面投产,这款产品GH200 Grace Hopper超级芯片采用NVIDIA NVLink-C2C互连技术,将基于Arm的英伟达Grace CPU和Hopper GPU架构组合在同一封装中,提供了高达900GB/s的总带宽——比传统加速系统中的标准PCIe Gen5通道带宽高7倍,互连功耗降低到原来的1/5,能够满足苛刻的生成式AI和高性能计算(HPC)应用。

还有推出NVIDIA Spectrum-X,是一个旨在提高基于以太网的AI云的性能和效率的网络平台,Spectrum-X的优势是高度通用性,能够用在一些AI应用上。基于Spectrum-X参考设计的蓝图和测试平台,英伟达在其以色列数据中心构建一台超大规模生成式AI超级计算机Israel-1。

以及NVIDIA MGX服务器规范,可以满足各种规模的数据中心的需求。有了这个规范,系统制造商可以用该产品去构建100多种服务器配置,去适应广泛的AI、HPC及NVIDIA Omniverse应用。MGX已经可以和英伟达全系列GPU、CPU、DPU以及各种x86及Arm处理器相配适。有了MGX,制造商可以从为其服务器机箱加速计算优化的基本系统架构开始,然后选择GPU、DPU和CPU。AI训练和5G等多项任务可以在一台机器上处理,或者升级到下一代硬件上。

还有一个是关于游戏的,推出面向游戏的NVIDIA Avatar云引擎(ACE),大家的关注度比较高。是一款定制AI模型代工服务,中间件、工具和游戏开发者可以使用它来构建和部署定制的语音、对话和动画AI模型。这款模型涵盖了英伟达的多项技术,英伟达NeMo,使用专有数据,构建、定制和部署语言模型;英伟达Riva,用于自动语音识别和文本转语音,以实现实时语音对话;英伟达Omniverse Audio2Face,用于即时创建游戏角色的表情动画,以匹配任何语音轨道。关于人工智能,虽然还没到应用状态,但cpo和游戏传媒方向慢慢崭露头角。

之前,英伟达和Convai合作,就展示过游戏开发者如何使用ACE来为游戏构建NPC。AI模型用于创作游戏,确实有不少优势,AI可以创造更智能化NPC、更人性化对话系统、更自由的场景生成,给用户更好的体验,而且AI技术还能够实现“降本增效”。传统方法生成NPC的成本很高,制作一分钟人物动画可能要几天时间,但利用AI技术就要更快一些。

会上英伟达推出的内容有很多,有兴趣的话,大家可以再去了解了解。训练AI大模型确实是一项耗费算力、算法、数据的工作,前两天英伟达推出的一系列硬件基础设施及软件工具,也说明了英伟达要在大模型上发力了,要围绕企业开发和部署生成式AI应用的核心痛点,利用自己的技术破解大规模AI的算力瓶颈。如果可以适用于更多的企业,那么会帮助企业及研究机构节省大量时间和成本。

为什么是英伟达?

在CPU和GPU上,英伟达押注的是GPU。并把GPU用在了通用计算上。那时候 GPU 的多是用来加速图形渲染,时常用于游戏领域。但是二十年前英伟达就研发了CUDA开发平台(通用并行计算架构)。搭载GPU的工具集,理由CUDA编程,能够让多个GPU并行运算,提高相应的计算性能。

在CUDA的加持之下,GPU脱离了图像处理的单一用途,开始真正具备通用计算的能力,并逐步被用到了AI的深度学习之中。比如OpenAI研发的GPT大语言模型,就需要大量的计算能力,GPU是主要的算力产出工具。英伟达推出的A100芯片是支撑起GPT的“主力”GPU。公开数据显示,GPT-3具有1750亿个参数,45TB的训练数据,并由上万枚A100芯片支撑。

在这两天的台北电脑展上,黄仁勋也看好GPU的计算能力,提到训练一个LLM大语言模型,将需要960个CPU组成的服务器集群,这将耗费大约1000万美元(约合人民币7070万元),并消耗11千兆瓦时的电力。相比之下,同样以1000万美元的成本去组建GPU服务器集群,将以仅3.2千兆瓦时的电力消耗,训练44个LLM大模型。若是都消耗11千兆瓦时的电量,而GPU服务器集群可以实现150倍的加速,训练150个LLM大模型,且占地面积更小。

想训练一个LLM大模型时,只需要一个40万美元左右,消耗0.13千兆瓦时电力的GPU服务器即可。也就是说,GPU服务器可以以4%的成本和1.2%的电力消耗来训练一个LLM,GPU比CPU服务器的优势大很多。

相比其他厂商,英伟达在AI芯片的优势,既有硬件性能的优势,也有软件生态的优势。英伟达推出了CUDA平台,支持开发者用熟悉的高级程序语言进行编程,灵活调用GPU的算力。自此,GPU的使用范围不再局限于显卡,而是扩展到所有适合并行计算的领域。GPU与CUDA组成的软硬件系统,形成了英伟达的产品壁垒。

AMD 的产品重点是CPU, Passmark曾发布相关情况,2021年第四季度AMD EPYC 霄龙系列在英特尔垄断下有所增长,占全球服务器 CPU 市场的 6%。但这几年AMD也在做GPU,研发 GPGPU 产品,还建立了 Infinity Fabric 技术,将 EPYC 霄龙系列 CPU 与 Instinct MI 系列 GPU 直接相连。有了硬件建设之外,软件上也毫不逊色,AMD 推出 ROCm 平台打造 CDNA 架构。AMD 的 ROCm 生态采用了 HIP 编程模型,但 HIP 与 CUDA 的编程语法极为相似,开发者可以模仿 CUDA 的编程方式为 AMD 的 GPU 产品编程,然后在在源代码层面上兼容 CUDA。也就是说,AMD 的ROCm 生态借用了 CUDA 的技术,技术上仍没有超过英伟达。

亚马逊推出过AI专用芯片,2020年底,AWS推出专用于训练机器学习模型的Trainium。今年初,专为人工智能打造的Inferentia 2发布,将计算性能提高了三倍,加速器总内存提高了四分之一,吞吐量提高了四分之一,延迟提高了十分之一。Inf2实例(可通过芯片之间的直接超高速连接支持分布式推理)最多可支持1750亿个参数。微软也在开发AI芯片,还有谷歌在自己的数据中心部署了人工智能芯片TPU v4,基于TPU v4的超级计算机拥有4096块芯片。谷歌的数据是相比TPU v3,TPU v4性能提升2.1倍。

而国内AI芯片厂商很难同时把两者都做好,多是倾向于架构创新、算力性能、平台方案等上,芯片的研发有些有了成果,像海光信息、天数智芯、壁仞科技和摩尔线程等为代表的国内厂商在研发 GPU,但成果也不多,软件、系统和生态层的建设更少。

我们也知道目前ChatGPT大模型只是开始,有些厂商已经获益不少,比如英伟达今年开始,股价增幅超过60%。英伟达在这场“AI算力上”,以A100、H100系列芯片贡献了不少力量,是ChatGPT这样的大型语言模型背后的动力来源。前几天英伟达公布2024财年第一季度财务业绩,季度营收71.9亿美元,较上一季度增长19%。其中,超过一半营收来自数据中心,达42.8亿美元,创历史新高。基于本季度营收增长态势,英伟达预计下季度营收将达110亿美元。得益于对生成式AI和大语言模型需求的不断增长,英伟达数据中心营收创历史新高,同比增长14%,环比增长18%

英伟达的业绩和蓝海还远不止A100、H100,因为越来越多的厂商对大模型有需求,特别是科技行业正在竞相开发更大的 AI 模型,而且大型数据中心运营商也在调整的计算基础设施,也在做人工智能方向,对芯片的需求是源源不断的,我们之前也提到H100芯片出现过短缺,今年才开始销售,H100 和 A100 芯片的销量都非常强劲,只增不减。而且美国禁止向我国出售高端AI芯片,国内难以买不到A100和H100,导致A800和H800这两款芯片的价格比原来的建议零售价高出40%。

那么,对于英伟达接下来的产品,性能如何?应用如何?市场还是非常期待。

吕长顺(凯恩斯) 证书编号:A0150619070003。【以上内容仅代表个人观点,不构成买卖依据,股市有风险,投资需谨慎】

关键词:

责任编辑:hnmd003

相关阅读

推荐阅读