「皮衣教主」黄仁勋可能睡觉都能笑醒。就在新冠疫情给电子消费、零售、制造等行业带来「深度衰退」时,以数据中心为代表的云计算行业却迎来逆势增长。近日,digitimes 报道,在新冠疫情大流行期间,数据中心对高性能计算 hpc、ai 应用需求旺盛,英伟达、amd 服务器芯片销量正在增加。
实际上,以服务器芯片为代表的英伟达数据中心业务,已经连续多个季度获得快速增长。从 2019 年财年的 25%%uff0c增长到 2020 年财年(截至 2020 年 1 月 26 日)的 27.4%%uff0c再到 2021 财年第一季度(截至 4 月 26 日)的 37%%u3002数据中心业务对英伟达整体营收的贡献越来越重要,和英伟达「传统」优势领域游戏板块业务旗鼓相当。
而就在一个多月以前的 2020 年 gtc 线上发布会上,英伟达切合时宜地顺应了云市场需求激增这一市场趋势。发布会没有出现传闻中的 ampere geforce rtx 3080 游戏显卡,数据中心产品却成为了「绝对主角」,赚足了闪光灯。英伟达推出了第八代 gpu 架构 ampere 安培,新一代 a100 计算卡,不但在工艺制程上跨越至 7nm,更在多个关键性能参数指标上呈数倍、乃至数十倍增长。
这是英伟达时隔三年,再度向市场扔出的重磅「核弹」,英伟达的目标很明确,就是 ai 训练兼推理芯片、高性能计算 hpc 领域。当然,英伟达占领的也不仅仅是服务器芯片为代表的硬件市场,其最大的「杀手锏」在于软硬一体的生态布局。
「最大的对手是自己」
英伟达 ceo 黄仁勋评价 a100 gpu,「这是英伟达有史以来最好的数据中心 gpu 芯片,几乎是当今半导体的理论极限,它是英伟达数十年以来数据中心经验的结晶。」
的确,a100 gpu 引起了包括亚马逊 aws、谷歌云、微软 azure、阿里云、百度云、腾讯云等云巨头,以及戴尔、浪潮、hpe、新华三、思科等系统制造商极大的采购热情。并且,在 a100 gpu 发布之前,就已经投产,开始逐步向云厂商们交付。
用黄仁勋的话来描述就是「前所未有」。
八年以前,黄仁勋绝对想不到,英伟达能够 c 端、b 端通吃,踩准了 ai 时代的每个关键节点,为深度学习提供强大算力,推动图片、语音、自动驾驶、机器人、乃至数据中心的飞速发展。如今,相比于 21 年前刚上市时,英伟达市值已翻了千余倍。
2012 年,imagenet 大赛上,参赛者因使用英伟达 gpu cuda,将深度卷积神经网络 alexnet 准确率提高 10% %u4ee5上,获得冠军,也让英伟达名声大噪。此后,英伟达 gpu 和 cuda 软件一直主导深度学习市场,几乎所有深度学习开发者离不开英伟达 gpu cuda 组合。
包括 2016 年,直接引爆 ai 第三次浪潮的关键事件,alphago 大战李世石,以及亚马逊 aws、微软,国内的互联网厂商 bat、美团等 ai 最新进展均有英伟达 gpu 的底层支持。多个第三方研究报告显示,在云端 ai 芯片市场,尤其是云端训练方面,英伟达占据绝对主导地位。
云端、企业级数据中心芯片市场,排名前四位的公有云厂商亚马逊 aws、微软 azure、谷歌云、阿里云的上万余个实例类型中,只有很小一部分不基于英伟达 gpu 加速。
不过,这不意味着,英伟达完全没有潜在威胁。英伟达竞争对手大致分为三种:英特尔、amd 为代表的「老对手」;亚马逊 aws、谷歌、阿里巴巴、华为为代表的云巨头,以及寒武纪、燧原科技为代表的创业型 ai 芯片公司在内的新对手。
实际上,与其说是新老之争,不如说是 cpu、gpu、asic、fpga 之间的纷争。尽管,英特尔 xeon cpu 已经安装于全球 99% %u7684数据中心中,但深度学习、ar/vr、iot、海量数据处理,推动着数据中心从 cpu 转向 gpu,并成为常态化。
比如,广告位展示、流媒体、电商平台推荐引擎系统、智能语音现在均已采用 gpu 驱动。再如,相同时间周期内芯片性能提高的难易程度不同。2017 年,英伟达推出基于新架构 volta 的 tesla v100 芯片,是上一代基于 pascal 架构的 tesla p100 训练速度的 12 倍。英伟达在三年之内将 ai 性能提高了 60多倍,而相同时间内,cpu 只能提高一倍。
难怪,黄仁勋自 2017 年以来,多次公开宣布摩尔定律已失效。
在云巨头方面,无论是 aws inferentia、谷歌 tpu、阿里巴巴含光 800 均属于 asic 芯片,侧重 ai 推理。云巨头自研云端 ai 芯片背后的逻辑有两点,一方面,降低购置芯片的成本,更好服务于自身业务,另一方面,逐步减少对英伟达、英特尔芯片的依赖,提高自己对云生态系统的掌控能力。
一般来说,asic 只针对单一场景,速度很快,gpu 的性能以面积和功耗为代价,理论上 asic 性能优于 gpu。但 asic 研发较慢,有时候赶不上深度学习的发展速度。在价格方面甚至更昂贵,谷歌官网显示,使用 tpu 价格为 8 美元/时,英伟达芯片则为 2.48 美元/小时。
「ai 训练芯片的研发难度更高,目前还是 gpu 占据了很大的优势。主要是英伟达围绕自己的 gpu 已经构建了丰富的软件生态。其他 asic 或 fpga 在硬件指标上可能占据优势,但在生态上比英伟达还落后很多,这也是为什么英伟达一家独大的原因。」芯谋研究徐可告诉极客公园。
芯片行业的「苹果公司」
黄仁勋曾说过,英伟达是一家 ai 公司,更强调英伟达是一家软件公司,和苹果类似,通过售卖硬件盈利的软件公司。
2006 年,英伟达面向开发者推出 cuda 通用并行计算平台,通过 cuda 平台,开发者可以使用 c 或 c 语言编程,来加速计算应用程序,极大地简化了软件开发过程。英伟达投入大量资金构筑 cuda 生态,通过开设课程、培训,吸引开发者,渗透至各个关键行业用户,这是竞争对手 amd 所不具备的能力。
近三四年,英伟达开发者数量增长迅猛,仅 2019 年一年,cuda 平台的下载量就超过了 500 万次。不仅如此,在 cuda 平台之上,英伟达还提供 cuda-x 软件加速库集合,其中,cuda-x ai 囊括了加速深度学习的 cudnn、加速机器学习算法的 cuml、优化训练模型以进行推理的 tensorrt 等 15 个库,此外,英伟达还推出 rapids 开源软件平台,加速企业数据分析、机器学习。
去年年底,黄仁勋在接受 gamesbeat 采访时谈到,英伟达基于 gpu 芯片构建出了非常复杂的软件堆栈,而软件堆栈是竞争对手不具备的「赛道」。
可见,cuda 平台在内的软件能力,已经成为英伟达的「护城河」。比如,2017 年,英伟达推出面向 ai 训练和高性能计算的 tesla v100 芯片后,长达两年多的时间里,没有新的后续产品推出。软件成为提高 ai 性能的关键,resnet-50 神经网络在软件的帮助下,ai 训练能力提高了 100%%u3002
在 gpu 硬件方面,英伟达也在巩固、增强固有优势。2019 年,英伟达收购 mellanox,弥补了英伟达在数据中心低延迟互连及网络方面的欠缺,显著增强 nvlink(gpu 与 gpu 互联)和 nvswitch(整合多个 nvlink)互联的速度与可扩展性。
2016 年,英伟达面向 ai 创业公司,推出初创加速计划,帮助 ai 创业公司加速孵化、商业落地。巨头竞争的本质是生态上的竞争。
「生态和软件非常关键。ai 芯片只是底层的工具,ai 开发者对 ai 芯片相关生态和软件的选择,决定了芯片的前途。」徐可说。
在经历游戏显卡业务想象力登顶,比特币挖矿机行业「过山车」式的起伏后,英伟达正凭借数据中心业务进阶 b 端。现在看来,英伟达押宝数据中心前景与钱景巨大,数据中心业务与英伟达强大的软件、生态能力产生的化学反应,正驱动英伟达在芯片市场讲出一个新的增长故事。
ssl证书申请iis的步骤是什么?北京免费网站制作是怎样的 免费建站优化方法是什么怎么注册邮箱域名 邮箱域名要不要实名制备案号码接入阿里云服务器老姜:百度快排和万词霸屏也会跟站群SEO一样消失嘉兴企业应该如何科学的准备网站建设资料?云服务器高防ddos租用云服务器选浪三科技