海外 GPU 云

开发、训练、部署 AI 应用,帮你快速实现概念验证到生产部署

选择适合您的卡型

模型训练

集群训练 H100

8 卡 H100 GPU 节点,提供高达 3.2 TBps 的 GPU 互连

单机训练 A100

限时特惠

DigitalOcean H100 Droplet 全新发布,12月31日前限时促销

NVIDIA H100x8

$2.5 /卡/小时起

NVIDIA H100x8

$2.99 /卡/小时起

NVIDIA H100

$3.39 /卡/小时起

推理

在云端运行人工智能模型,只需几个简单的步骤即可轻松将模型部署为 API 。不再担心 Kubernetes、Docker 和框架问题

A100-80G

90 GB RAM

12 vCPU

A6000

45 GB RAM

8 vCPU

V100

16 GB RAM

30 GB RAM

8 vCPU

A5000

45 GB RAM

8 vCPU

A4000

45 GB RAM

8 vCPU

比较这些卡

GPU型号
A100
V100
A6000
A5000
A4000
架构
Ampere
Volta
Ampere
Ampere
Ampere
FP16性能
312 TFLOPS
125 TFLOPS
77.4 TFLOPS
54.2 TFLOPS
19.17 TFLOPS
FP32性能
19.5 TFLOPS
15.7 TFLOPS
38.7 TFLOPS
27.8 TFLOPS
19.17 TFLOPS
显存
80 GB
32 GB
48 GB
24 GB
16 GB
显存
HBM2
HBM2
GDDR6
GDDR6
GDDR6
带宽
2,039 GB/s
900 GB/s
768 GB/s
768 GB/s
448 GB/s

学习研究

只需几秒即可从浏览器启动支持 GPU 或 IPU 的Jupyter Notebook。内置多种ML库或框架。轻松邀请协作者或共享公共链接。

P6000

24 GB GPU

30 GB RAM

8 vCPU

RTX5000

30 GB RAM

8 vCPU

P5000

16 GB GPU

30 GB RAM

8 vCPU

RTX4000

30 GB RAM

8 vCPU

P4000

8 GB RAM

30 GB RAM

8 vCPU

M4000

8 GB RAM

30 GB RAM

8 vCPU

按需提供无限计算能力

简单的管理界面和API

轻松启动大型计算节点集群,零 DevOps 需求。跟踪整个团队的实时利用率。完善的API 访问。

快速的网络

公网带宽可达 10Gbps 以上

最新最先进的基础设施

最新 NVIDIA GPU,您始终可以获得最好的可用硬件

快速开始

报价咨询、方案设计。我们有认证的产品专家随时准备提供帮助。