AI在线 AI在线

一文带你开启 SmartNotebook 的 GPU 支持(PyTorch 实测)

在数据科学与深度学习的日常工作中,GPU 已经成为不可或缺的计算加速工具。 无论是训练大规模 Transformer 模型,还是运行复杂的图像处理与科学计算任务,GPU 都能显著提升性能。 SmartNotebook 作为一款类似 Hex.tech 的现代化 DataNotebook 平台,不仅支持在容器环境中快速部署,还可以通过简单的配置实现 GPU 加速,让用户在 DataNotebook 内即可运行深度学习任务。

在数据科学与深度学习的日常工作中,GPU 已经成为不可或缺的计算加速工具。无论是训练大规模 Transformer 模型,还是运行复杂的图像处理与科学计算任务,GPU 都能显著提升性能。

SmartNotebook 作为一款类似 Hex.tech 的现代化 DataNotebook 平台,不仅支持在容器环境中快速部署,还可以通过简单的配置实现 GPU 加速,让用户在 DataNotebook 内即可运行深度学习任务。。

图片

本文将介绍如何在 SmartNotebook 中配置 GPU 支持,并以 torch 为例进行验证,内容分为以下四个部分:

  1. CUDA 安装
  2. Docker 及 Container-Toolkit 配置
  3. docker-compose 添加 GPU 支持
  4. 安装 Torch 并测试

1.CUDA 安装

cudu 默认已经内置了 NVIDIA 驱动。如果在宿主机上额外安装驱动,可能导致版本冲突,出现 安装失败 等问题。

NVIDIA CUDA 下载地址,可以根据系统类型进行筛选:

复制

安装命令如下:

复制

图片图片

2.docker及NVIDIA container-toolkit的安装

从 Docker 20 版本开始,Docker 已经原生支持 docker compose 命令,不再需要单独安装 docker-compose。

因此需要确保安装 Docker 28+,并安装 docker compose 插件。

安装 Docker:

复制复制复制

图片图片

安装 NVIDIA Container Toolkit(用于容器访问 GPU)

 安装文档:

复制

修改运行脚本 docker-compose-simple.sh:

复制

3.docker-compose 添加GPU配置项

在完成 NVIDIA Container Toolkit 安装后,可以在 docker-compose.yml 中使用 gpus: all 来开启 GPU。

示例 docker-compose-simple.yml:

复制

这里 node 服务绑定了宿主机 GPU,Notebook 内部的 Python 环境即可调用 CUDA。

图片图片

4.安装torch及测试

进入 Notebook 或容器后,安装 torch:

复制

测试 GPU 是否可用:

复制

图片图片

如果输出结果显示 CUDA is available: True,并且能正确列出 GPU 型号(如 NVIDIA A100),说明 Notebook 已经成功开启了 GPU 支持。

通过以上四个步骤,我们完成了 SmartNotebook 的 GPU 环境配置:

  • 安装 CUDA,确保宿主机具备 GPU 工具链;
  • 配置 Docker 与 Container-Toolkit,为容器打通 GPU 通道;
  • 在 docker-compose 中开启 GPU,让 Notebook 容器能使用显卡;
  • 安装 PyTorch 并测试,验证 GPU 是否可用。

这样,用户就可以在 SmartNotebook 中轻松运行深度学习任务,充分发挥 GPU 的强大算力,加速模型训练与数据分析。

相关资讯

和TensorFlow一样,英伟达CUDA的垄断格局将被打破?

CUDA 闭源库将和 TensorFlow 一样逐渐式微。
1/18/2023 9:24:00 PM
机器之心

用什么tricks能让模型训练得更快?先了解下这个问题的第一性原理

深度学习是门玄学?也不完全是。
3/22/2022 2:26:00 PM
机器之心

免费、开源的PyTorch IDE来了!跨三大操作系统,还带视频教程

经过数月的封闭测试后,TorchStudio 现在终于来了。
3/1/2022 3:19:00 PM
机器之心
  • 1