您的位置:首页 >电商 >

Google正式整合Kubernetes引擎与GPU服务

时间:2022-12-16 13:31:25 来源:[db:来源]

原标题:Google正式整合Kubernetes引擎与GPU服务

近日Google云端服务加强许多深度学习、机器学习应用相关的功能,先是扩充虚拟主机硬体规格,推出主打大记忆体容量的ultramem规格VM,让使用者能进行高效能运算,同时,公有云平台的先占式GPU、TPU也在近日陆续上线,企业可以花费比随需服务更便宜的价格,使用GPU、TPU资源。而这一次Google则是宣布,公有云GPU服务现在正式与Kubernetes引擎(GKE)整合。

目前GCP旗下的GPU硬体共有3种选择,从价格较入门等级的K80,至中阶P100及高阶V100,让使用者可以按需选择。想要使用新功能的使用者,现在Google也有提供300美元免费试用额度。

这次发布后,企业在GKE环境中运作的容器应用程式,便可以搭配GPU服务,执行CUDA工作负载,「可以借力GPU大量处理能力,同时免去管理VM的工作」,Google表示,此服务也可以搭配日前正式上线的先占式GPU服务使用,降低企业进行机器学习运算的成本。现在此功能,也已经和Google云端监控服务Stackdriver整合,使用者可以观察,现在GPU资源的存取频率、GPU资源的可用量,或者GPU的配置状况。

此外,在Kubernetes环境中使用GPU服务的企业,也可以一併使用Google Kubernetes引擎的一些现有功能。像是搭配Node资源池功能,让现有Kubernetes丛集上的应用程式可以存取GPU资源。当企业应用规模弹性改变时,则可以选用丛集扩充功能,系统可以自动扩充内建GPU的节点,当基础架构中没有任何Pod需要存取GPU资源时,系统就会自动关闭这些扩充节点,GKE也会确保节点上的Pod,都是需要存取GPU资源的Pod,避免没有GPU需求的Pod被部署至这些节点运作。而系统管理员可以利用资源配额功能,当多个团队共用大规模丛集时,限制各使用者能存取的GPU资源。

 

现在此功能,也已经和Google云端监控服务Stackdriver整合,使用者可以观察,现在GPU资源的存取频率、GPU资源的可用量,或者GPU的配置状况。图片来源:Google


郑重声明:文章仅代表原作者观点,不代表本站立场;如有侵权、违规,可直接反馈本站,我们将会作修改或删除处理。