Skip to content

3 步上手

利用我们预制的基础镜像快速创建云主机

点击顶部的【云主机】按钮,进入云主机界面:https://console.suanli.cn/server

挑选合适的设备,本例中点击【4台设备可租】按钮

GPU 型号推荐配置:随便选

  1. 显存完全达标

    • 图片中所有型号单卡均提供 24GB 以上显存,远超服务部署启动的要求,无需担心显存不足。
  2. 性价比与灵活性

  • 1 卡配置:每小时仅需 1.68 元,按秒计费(0.000446 元/秒),适合短期测试或常规任务。
  • 多卡选项备用:若未来需要多卡训练或高并发任务,可随时切换 2 卡/4 卡。
  1. 简化选择逻辑
    • 无特殊需求:如果只是运行文档镜像中的常规任务(如模型推理、数据处理),单卡性能完全足够。
    • 兼容性无忧:镜像仓库默认适配主流 GPU 型号(如 4090),无需额外调试。

操作建议

  • 随便选 直接选定合适的设备,快速完成部署。
  • 进阶场景:仅当需要训练大模型(如 LLM、多模态)时,再考虑 2 卡/4 卡配置。

图片中的配置均为“无坑选项”,闭眼选 1 卡即可开箱即用,成本可控,资源立即可用。

为创建的开发机设置一个容易记住的名字,也可以采用系统自动生成的实例名称。

按照需求选择我们预制好的镜像,同时可以通过文档链接快速了解容器化部署对应服务的步骤。

这里我们选择了 在 Ubuntu22.04 上运行的 PyTorch 的 2.1.2 版本,Python 为 3.10,CUDA 版本 11.9 的镜像作为示例。

  • 平台默认提供了一批基础镜像供试用,可以根据实际需要选择合适的镜像

1.2.3 开通共享存储卷服务,挂载到本机目录

Section titled “1.2.3 开通共享存储卷服务,挂载到本机目录”

注意:

  • 挂载存储的时候,不要直接挂载到/、/root、 /root/目录,否则会出现一些奇怪的问题。建议挂载在类似/root/data 、/root/code 之类的二级目录。

同意服务协议,点击【创建实例】按钮,完成云主机的创建过程。

打个比方

像不同规格的“工程机械车”:

  • 1 卡/2 卡/4 卡/8 卡:代表单台机器搭载的 GPU 数量,类似一辆卡车能装 1 台或 8 台发动机,动力逐级增强。
  • 显存 24GB:相当于车辆的“货仓容量”,决定了一次性能处理多少数据(如大型模型参数)。
  • 内存 64GB & CPU 核心数 16:如同驾驶室的空间和司机数量,影响多任务并行处理效率。
    • xxx 台设备可用:表示当前可用的“车辆库存”,库存越多,部署越快。

适用场景

  • 1 卡:常规任务(模型推理、数据处理)。
  • 多卡:分布式训练、高并发计算(如大语言模型训练)。

打个比方

就像给项目文件贴标签,例如“2025-双十一促销数据分析”,方便后续查找和管理。

简而言之

服务名称是用户为当前部署任务定义的唯一标识,建议采用「用途 + 日期」格式(如 image-classification-20250515),便于后续监控、管理和成本追踪。


基础镜像是共绩算力平台为用户提供的一批“即开即用、极简配置、环境一致”的预置镜像。基础镜像兼容了本地开发习惯,支持多进程管理,非常方便后续平滑迁移到无状态服务部署。

镜像组成

  1. 基础系统

操作系统:Ubuntu 20.04 / 22.04(根据 CUDA 版本选择)

CUDA:11.8(20.04)/ 12.8(22.04),支持 AdaLovelace 架构(如 4090)

包管理:apt(默认更换为清华源,加速安装)

  1. Shell 与多进程管理

Bash:主交互 Shell

screen:多会话管理

supervisord:多进程管理器,统一管理各服务进程

  1. 远程与开发工具

SSH Server:支持通过环境变量配置用户名密码,便于远程开发

VSCode Server:预装插件(Python、Pylance、Jupyter、Python Debugger),自动配置解释器路径,自动激活 conda 环境

JupyterLab:预装插件(JupyterLab Debugger、LSP、TOC、LaTex、HTML、Matplotlib),默认启动 bash 终端,自动激活 conda 环境

miniconda:默认更换为清华源,自动加载 base 环境,管理 Python、pip、JupyterLab 等

  1. AI 框架支持
  • PyTorch

支持版本:2.7.1、2.6.0、2.5.1、2.4.1、2.3.1、2.2.2、2.1.2、2.0.1、1.13.1、1.8.2

每个版本均兼容最高 Python、CUDA、Ubuntu 版本

  • TensorFlow

支持版本(Python 版本需对应):2.19-py3.12、2.18-py3.12、2.15-py3.11、2.11-py3.10、2.7-py3.9、2.4-py3.8、2.1-py3.7、2.1-py2.7、1.15-py3.7、1.15-py2.7