今年3月举行的2024年GTC大会上,英伟达发布新一代基于Blackwell架构的GPU(图形处理单元)芯片B200,相比上一代H100性能推理性能提升高达30倍。
英伟达创始人兼CEO黄仁勋曾表示,一个新的计算时代已经开始了。“我们的GPU扩大 AI 软件网络和交换机技术,构建了生成式AI的计算基础架构。”
事实上,这些年几乎大部分全球性的技术风口,云计算、加密货币、元宇宙、人工智能,英伟达全都是重度参与者。以ChatGPT掀起的AI热潮让英伟达受益匪浅,全球几乎所有的大模型都是用英伟达显卡训练出来的,并以超过95%的市场占有率垄断了 AI 训练芯片市场。最新B200芯片更是稳固了英伟达在 AI 芯片领域的霸主地位。
随着英伟达的迅速崛起,仅用时9个月,英伟达市值从1万亿美元增长到2万亿美元。
截至3月27日,英伟达市值已高达2.31万亿美元——这不仅是美国市值第三高的公司,而且以国内生产总值(GDP)计算,也超过了德国、俄罗斯等大多数国家的经济体。
回顾英伟达的发展史,从最初靠游戏显卡崭露头角,到如今一举成为 AI 领域的绝对王者,英伟达是如何崛起的?在目前激烈的算力竞赛中,英伟达的领先优势又能保持多久?本期钛媒体·钛度图闻带你关注。
10年累计投入364亿美元,持续挖掘GPU潜力
今年2月发布的2024财年(2023年自然年)四季度财报显示,英伟达营收达221亿美元,同比增长265%;净利润122.85亿美元,同比增长768%。整个去年,英伟达营收达609.22亿美元,同比增长126%,毛利率则高达72.7%。
作为芯片半导体这一高科技产业中重要的芯片设计巨头,英伟达持续发力研发投入,这也成为英伟达的核心竞争力之一,即研发为底、生态为径、AI 为翼。
从发展初期,英伟达非常重视研发生产力,以高投入换去高回报不断提升产品竞争力。2005年,AMD 的研发费用为11亿美元,是英伟达的3.2倍左右;而到了2022年,英伟达的研发费用就达到73.4亿美元,是AMD的1.47倍。
截至整个2024财年,英伟达研发费用高达86.75亿美元,是AMD同期研发费用的1.48倍。
据钛媒体·钛度图闻统计,过去10年(2014-2023自然年),英伟达累计投入费用高达364亿美元,高于苹果公司、微软公司等科技巨头。
随着研发投入的不断增长,英伟达通过技术进步降低成本和产品价格,不断推出新的产品吸引更多消费者,优势逐渐凸显。
从1990年的GPU Geforce 256,到首个通用GPU计算架构Tesla,再到Maxwell、Pascal、Volta、Ampere、Hopper架构,以及如今的Blackwell架构,英伟达芯片性能持续提升。例如,相比Hopper架构,最新Blackwell架构的GPU单芯片训练性能(FP8)提升2.5倍,推理性能(FP4)提升5倍。
AI 方面,人工智能的发展为 GPU 带来更大增长空间,自2016年开始,英伟达逐步开始向深度学习方向演进。英伟达抓住下游发展新机遇,推出 AI 加速卡,伴随以 ChatGPT 为代表的生成式 AI 大模型发展进入快速增长通道。
生态方面,英伟达推出 CUDA 平台,使得利用 GPU 来训练神经网络等高算力模型的难度大大降低,将 GPU 的应用从 3D 游戏和图像处理拓展到科学计算、大数据处理、机器学习等领域,这一生态系统的建立让很多开发者依赖于 CUDA,进一步增加了英伟达的竞争壁垒。
那么,市场层面看,钛媒体·钛度图闻使用总处理性能(TPP)来对比英伟达与其竞品AMD、英特尔的芯片性能情况。整体来看,无论是英伟达A100,还是目前最新的H100、B200,训练性能都“遥遥领先”于AMD MI300系列、英特尔Gaudi 3等同期 AI 芯片产品。
而最新发布的英伟达B200芯片