企业级 GPU 算力服务

GPU 容器实例

提供丰富的 GPU 型号、极致的性能优化和广泛的算力供给,为新一代生成式 AI、云渲染、机器学习和加速计算等场景提供高性价比的算力服务

GPU 配置

GPU 规格配置

从入门级到旗舰级,提供多种 GPU 配置满足不同场景需求

H100 SXM 80GB
旗舰级
显存 80 GB
CPU 22 核
内存 150 GB
¥17.20
按量计费 / 卡时
H200 SXM 141GB
最新
显存 141 GB
CPU 24 核
内存 256 GB
¥26.90
按量计费 / 卡时
RTX 4090 24GB
性价比
显存 24 GB
CPU 16 核
内存 62 GB
¥2.89
¥2.37
按量计费 / 卡时
RTX 5090 32GB
热门
显存 32 GB
CPU 16 核
内存 120 GB
¥3.98
¥2.98
按量计费 / 卡时
RTX 6000Ada 48GB
专业级
显存 48 GB
CPU 22 核
内存 125 GB
¥8.20
¥7.38
按量计费 / 卡时
H20 SXM 96GB
企业级
显存 96 GB
CPU 16 核
内存 154 GB
¥6.80
按量计费 / 卡时
核心优势

核心优势

通过结合最佳硬件选型和推理优化加速技术,实现资源成本的最优化,成本节省高达50%

按需付费

灵活的计费方式,随用随停,只为您使用的算力付费,大幅降低使用成本

全球部署

在全球多个地区拥有分布式多集群,提供大容量带宽,高速下载大模型

多框架支持

提供丰富的一键部署镜像,包括 TensorFlow、PyTorch、TensorRT 等主流框架

云存储

云存储解决方案

极速、大容量、经济的云存储解决方案

100GB
免费存储额度

立即享受超快速免费存储解决方案,为您的 AI 项目提供强大支持

弹性云存储

支持无限扩展能力,在容器之间轻松切换,同时确保数据安全且容易管理

成本优化

在高性能的同时降低成本,免费额度外的存储仅需极低费用,有效控制预算

API 集成

OpenAPI 集成

通过 OpenAPI 灵活地实现业务调整、资源管理和运维监控,便捷地接入您现有的 DevOps 体系

Python
Node.js
Go
Java
# Python 示例
import requests
import json
url = "https://api.gongjiyun.com/v1/instances"
headers =
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
response = requests.get(url, headers=headers)
print(response.json())

立即开始您的 AI 项目

无需等待,即刻开始您的 AI 项目,享受弹性算力带来的无限可能