产品简介

 

专业级云服务器

更新时间 2023-09-06

GPU云服务器 g2

具备 GPU 加速计算能力的实例,可同时提供 GPU 和 CPU 计算资源,大幅提高机器学习及科学计算等大规模计算框架的运行速度,为搭建人工智能及高性能计算平台提供基础架构支持。主要应用场景包括人工智能深度学习、高性能计算、图形图像处理等领域。

说明

在北京3区-A、北京3区-B、北京3区-D、上海1区-A四个区域,支持开通 NVIDIA Tesla P100 GPU云服务器。

特点:

  • GPU类型为NVIDIA Tesla P100,专门为计算加速场景优化设计,可提供3584个并行计算核心,单精度浮点运算能力达9.3TFLOPS,双精度浮点运算能力达4.7TFLOPS。
  • CPU采用第二代英特尔®至强®金牌6240处理器,主频:2.6GHz,睿频最高可达3.9GHz
  • 配有全新的 Intel Advanced Vector Extension (AVX-512) 指令集,在深度学习的多种场景性能提升4倍
  • 处理器内存配比1:4
  • I/O优化
  • 支持 VPC 私有网络和基础网络
  • 系统盘支持企业级SSD硬盘,数据盘支持企业级SSD硬盘、容量型和企业级分布式 SAN

GPU云服务器 g2 包括的实例规格和性能指标如下:(内网带宽和显存待确定)

实例类型 CPU 内存 GPU 内网带宽
g2ntp100.4xlarge.r4 16核 64G 1*NVIDIA TESLA P100 6 Gbps
g2ntp100.8xlarge.r4 32核 128G 2*NVIDIA TESLA P100 12 Gbps

GPU云服务器 g3

由 NVIDIA Ampere 架构提供支持,作为 NVIDIA 数据中心平台的引擎,A100 的性能比上一代产品提升高达 20 倍,并可划分为七个 GPU 实例,以根据变化的需求进行动态调整。可针对 AI、数据分析和 HPC 应用场景,在不同规模下实现出色的加速,有效助力全球高性能弹性数据中心。在大数据分析基准测试中,A100 的速度比 CPU 快 42 倍,非常适合处理数据集大小激增的新型工作负载。

说明:

仅在济南一区可创建 NVIDIA A100 GPU云服务器。

特点:

  • CPU采用第三代英特尔®至强®可扩展处理器(Ice Lake),主频:2.6GHz,睿频:3.4GHz
  • 处理器内存比:8:60
  • 推理吞吐量提升到高达 CPU 的 249 倍
  • 在大型模型上将 AI 训练的速度提升高达 3 倍
  • 与 CPU 相比,AI 推理性能提升高达 249 倍
  • I/O优化
  • 支持 VPC 私有网络和基础网络
  • 系统盘支持企业级SSD硬盘,数据盘支持企业级SSD硬盘、容量型和企业级分布式 SAN

GPU云服务器 g3 包括的实例规格和性能指标如下:(内网带宽和显存待确定)

实例类型 CPU 内存 GPU 内网带宽
g3na100.2xlarge.g1 8核 60G 1*NVIDIA A100 4 Gbps
g3na100.4xlarge.g2 16核 120G 2*NVIDIA A100 8 Gbps
g3na100.8xlarge.g4 32核 240G 4*NVIDIA A100 16 Gbps
g3na100.16xlarge.g8 62核 460G 8*NVIDIA A100 50 Gbps

弹性裸金属云服务器 bm3

采用第三代英特尔®至强®可扩展处理器(代号:Ice Lake)和 DPU 架构,通过引入智能网卡,实现存储、网络等数据处理功能卸载,让用户可独享 CPU 计算资源,实现裸金属服务器的完整算力保留,以极致性能满足各类核心业务需求。

弹性裸金属 BM3 同时具备云服务器的弹性、敏捷性、灵活性与高可用,支持按需使用,且用户业务应用可直接访问处理器和内存,无任何虚拟化开销。

说明:

仅在北京三区可创建弹性裸金属服务器。

特点:

  • 第三代英特尔®至强®可扩展处理器(Ice Lake),主频:2.6GHz,睿频:3.4GHz
  • 具有 128 核、512 G内存的超强算力
  • 通过在服务器侧引入智能网卡,将网络、存储、操作系统中不适合由 CPU 支持的高性能数据处理功能卸载到智能网卡中执行
  • I/O优化
  • 支持 VPC 私有网络和基础网络
  • 系统盘支持企业级SSD硬盘,数据盘支持企业级SSD硬盘、容量型和企业级分布式 SAN
实例类型 CPU 内存 内网带宽
bm3 128核 512G 32 Gbps
这篇文档解决了您的问题吗?
0
0