配置和定价
水平滚动以查看表格
价格不包含增值税。
专为 AI 和计算密集型工作负载而设计
AI 培训
图形处理单元 (GPU) 拥有数千个处理核心,可以并行执行多个矩阵运算。 因此,GPU 完成 AI 训练任务的速度比传统 CPU 快得多。
深度学习
GPU 可以轻松处理深度神经网络和循环神经网络的高计算需求,这是开发复杂深度学习模型(包括生成式 AI)的基础。
高性能计算
卓越的 GPU 性能非常适合计算密集型工作负载,包括动态编程算法、视频渲染和科学模拟。
数据分析
GPU 提供高内存带宽和高效的数据传输能力, 可以提升大数据集的处理和操作,从而加快分析速度。
GPU 优势
NVIDIA A100 和最新的 H100 GPU 处于企业级 GPU 市场的领先地位。 这两款功能强大的多功能加速器适用于多种多样的 AI 和高性能计算 (HPC) 工作负载。
A100 规格
- AI 推断性能比 CPU 高 249 倍
- 性能比上一代 NVIDIA GPU(即 V100)高 20 倍
- 第 3 代 Tensor Core
- 高达 80GB 的 HBM2e 内存
H100 规格
- 在 GPT-3 上进行 AI 训练时,性能比 A100 GPU 高 4 倍
- 对于 HPC 应用,其性能比 A100 GPU 高 7 倍
- 第 4 代 Tensor Core
- 高达 100GB 的 HBM3 内存
在 H100 于 2022 年发布之前,A100 是 MLPerf 行业基准测试中领先的 GPU 平台。
在最新的 MLPerf 基准测试中,H100 展现出优于其他竞品的性能。
AI 框架的理想之选
NVIDIA GPU 非常适合运行帮助构建、训练和部署 AI 模型的 AI 框架和工具。
想要专用的裸金属 GPU 服务器或虚拟 GPU 实例?
选择最适合您的解决方案!
裸金属 GPU 服务器
裸金属服务器提供了对物理硬件(包括 GPU)的直接访问。 这意味着所有 GPU 资源都是专门为您提供的。 裸金属 GPU 可为 AI 和计算密集型工作负载提供最佳性能。
虚拟 GPU 实例
如果采用相同配置,虚拟机上 GPU 的执行速度会略慢于裸金属服务器上的 GPU。 但与裸金属 GPU 服务器相比,虚拟机管理起来更加简单,支持扩缩并且价格更低。
具有 GPU 工作节点的托管式 Kubernetes
Kubernetes 具有自动扩缩和自动修复等功能,因此非常适用于动态工作负载,包括机器学习、视频处理,以及其他计算密集型任务。 利用 Gcore 的托管式 Kubernetes,在使用裸金属服务器和虚拟机时,您可以将 GPU 用作工作节点(A100 和 H100)。 只需请求自定义 GPU 资源便可在容器中利用 GPU,就像请求 CPU 或内存时一样。
GCORE合作伙伴
常见问题解答
图形处理单元 (GPU) 是专为改进计算机图形渲染而设计的电子电路。 GPU 用于各种应用,包括视频游戏、3D 建模和 AI 训练。
GPU 可以实现并行处理,这意味着 GPU 可以同时执行多条指令。 这是 GPU 与中央处理单元 (CPU) 的主要区别;后者一次只能执行一条指令。
我们将根据您选择的特定配置收取相应费用。 如果您购买的是不属于 Kubernetes 集群的单独 GPU 实例,则会向您收取相应虚拟机或裸金属配置的费用。 请参见上文中的配置和定价部分详细了解价格信息。
请发送电子邮件至sales@gcore.com与我们的销售团队联系,并提供您所需的新实例配置。 如果您需要销售团队帮助您选择配置,他们会根据您的请求提供最佳解决方案。
具体取决于您选择的实例类型是裸金属还是虚拟机。 如果您选择的是裸金属服务器,它的全部资源都是您专属的。
如果您选择的是虚拟机,您将获取虚拟计算资源,包括 GPU 的资源。 实例(服务器)的物理资源是共享的,但虚拟资源不是。 您可以访问您所购买的全部资源。
在您购买 GPU 实例后,该实例立即可用:
- 3–5 分钟内(对于虚拟机)
- 15–20 分钟内(对于裸金属服务器)
提供。填写此表,我们的销售团队将联系您探讨此问题。 请注意,在您的试用期结束时,将切换为标准的即用即付套餐。
可以。 填写此表,我们的销售团队将联系您探讨此问题。
有。填写此表,我们的销售团队将联系您探讨具体情况,并将您添加到我们的等待名单。
如果需要了解更多关于AI GPU云基础设施的信息,请填写表格。
By submitting this form, I agree to the processing of my personal data for specified or additionally selected purposes and in accordance with Gcore's Privacy Policy.