google宣布基于nvidia ampere a100 tensor core gpu在google compute engine上引入了accelerator-optimized vm(a2)系列。a2在单个vm中最多可提供16个gpu,并且是公共云中第一个基于a100的产品。
google设计了a2虚拟机系列,以提高其客户的培训和推理计算性能。a2具有基于新nvidia ampere架构的nvidia a-100 tensor core图形处理单元。根据博客文章,a-100的计算性能是上一代gpu的20倍,并配备40 gb的高性能hbm2 gpu内存。此外,a2 vm配备多达96个intel cascade lake vcpu,可选的本地ssd,用于需要更快地将数据馈送到gpu和高达100 gbps网络的工作负载。
当客户的工作负载要求更高时,a2提供带有16个a100 gpu的a2-megagpu-16g实例,其中包括总共640 gb的gpu内存,1.3 tb的系统内存以及通过nvswitch连接的所有组件,最高可提供聚合带宽为9.6tb / s。
请注意,a2还提供了较小的配置,使客户可以满足他们对gpu计算能力的需求。客户可以选择五种配置,从一到16个gpu,具有两种不同的cpu和网络对gpu的比率-由于ampere的多实例组(mig)功能,每个gpu最多可划分为七个gpu实例。。
nvidia加速计算部门总经理兼副总裁ian buck在最近的公司博客中写道,a-100在gcp上的可用性:
在云数据中心中,a100可以支持广泛的计算密集型应用程序,包括ai培训和推理,数据分析,科学计算,基因组学,边缘视频分析,5g服务等。
借助a2系列,虚拟机google进一步扩展了预定义和自定义虚拟机的产品范围,从计算到加速器优化的机器。此外,该公司将继续与其他云竞争厂商如微软,该公司最近发布了新的通用和各种内存优化vm家庭英特尔芯片组(avx-512) -和aws,它最近发布了基于其ec2 inf1实例inferentia筹码。这些新的vm类型中有许多是针对具有ai和机器学习工作负载的客户的。
constellation research inc.首席分析师兼副总裁说:
云领导力之战主要是在ai之战中进行的,而这就是使企业的ai负载吸引到每个供应商的云中。中间是诸如nvidia之类的平台供应商,它们提供跨云平台和内部部署选项。因此,随着google将最新的nvidia平台引入其google cloud,它使cxo可以更轻松地将ai工作负载跨内部和(google)云迁移。
他还说:
随着google成为排名第三的供应商,它必须在吸引负载方面更加开放和更具创造力-这是google战略的另一个例子。相比之下,更大的aws和azure战略仍将转向ai负载的云专有计算架构。cxo必须意识到锁定对于大多数技术供应商而言仍然是理想的结果,并且需要权衡便利性,速度和锁定之间的风险。
目前,a2 vm系列处于alpha状态,客户可以通过注册来请求访问权限。此外,谷歌表示,公众可获得性和价格信息将在今年晚些时候发布。最后,该公司还宣布即将为nvidia a100提供对google kubernetes engine,cloud ai platform和其他服务的支持。
什么是域名后缀?后缀域名注册该怎么选?影响网站建设效果的因素有哪些华为小米出货量增长迅速 危及三星苹果市场如何手机网站制作,网站制作需要注意哪些问题?新装路由器怎么设置_新路由器如何设置上网云服务器怎么做虚拟主机系统老域名网站不收录的原因有哪些?腾讯云服务器配置mime