当前位置:首页 > 科技 > 正文

AWS为短期AI工作负载提供更灵活的NvidiaGPU访问

发布时间:2024-03-15 11:42:04 编辑:荣安永 来源:

导读 AWS是一项已经很受欢迎的云计算服务,面向那些希望为AI工作负载访问性能最佳硬件的开发人员,它宣布了针对短期需求的更灵活的方案。用于ML...

AWS是一项已经很受欢迎的云计算服务,面向那些希望为AI工作负载访问性能最佳硬件的开发人员,它宣布了针对短期需求的更灵活的方案。

用于ML的AmazonElasticComputeCloud(EC2)容量块被Amazon称为行业首创,并将允许客户以基于消费的模型访问GPU。

这家总部位于西雅图的云巨头希望更实惠的选择将为小型组织提供更多机会,帮助打造更加多元化的格局。

该公司在一份新闻稿中表示:“借助EC2容量块,客户可以在专为高性能机器学习工作负载而设计的AmazonEC2UltraCluster中预留数百个NvidiaGPU。”

客户可以通过指定集群大小和持续时间来访问最新的NvidiaH100TensorCoreGPU,这些GPU适合训练基础模型和大型语言模型,这意味着他们只需为自己需要的部分付费。

亚马逊指出,随着越来越多的企业开始使用生成式人工智能,对GPU的需求正在迅速超过供应,许多企业要么会发现自己为过多的服务付费,要么GPU在不使用时处于休眠状态,或者更糟糕的是,两者兼而有之。

AWS用户可以预留P5实例的EC2UltraClusters1-14天,最多提前八周。他们可以选择灵活的集群大小选项,范围为1-64个实例,或最多512个GPU。

AWS计算和网络副总裁DavidBrown评论道:“借助AmazonEC2容量块,我们为企业和初创公司添加了一种新方式,可以预见性地获取NvidiaGPU容量来构建、训练和部署其生成式AI应用程序,而无需投入长期资本承诺。这是AWS为扩大生成式AI功能的使用而进行创新的最新方式之一。”


免责声明:本文由用户上传,如有侵权请联系删除!

上一篇:最新的 Windows 11 更新对 Microsoft Teams 进行了一些重大更改

下一篇:最后一页