首页 > 其他分享 >Docker 常用操作命令与 GPU 容器运行随记

Docker 常用操作命令与 GPU 容器运行随记

时间:2024-09-09 10:25:52浏览次数:7  
标签:容器 镜像 操作命令 查看 -- tensorflow GPU docker 随记

Docker 常用操作命令与 GPU 容器运行随记

这篇文章整理了在 Docker 环境下常用的操作命令,并附加了一些关于 GPU 容器运行的随记。内容涵盖了从镜像管理、容器操作到网络配置、系统资源监控的方方面面,还包括了如何查看 Docker 环境的信息以及日志管理等操作。此外,文章还介绍了在 Docker 中启动 GPU 容器的步骤,以及运行 Jupyter 笔记本服务的详细命令。无论是新手还是有经验的用户,都能从中找到有用的操作指南和参考信息,提升 Docker 使用效率。

一 查看本机的镜像

# 查看本机的镜像
docker images

二 下载镜像

# 下载镜像
docker pull openjdk:8-jdk-alpine

# 下载指定平台镜像
docker pull --platform linux/arm64 openjdk:8-jdk-alpine

三 搜索镜像

# 搜索镜像
docker search jdk8

四 查看运行的容器

# 运行的容器
docker ps
docker container ls
docker container ls -a
docker ps -a 

五 重启容器

# 重启一个或多个容器
docker container restart id号
docker container restart cc58a2c5f837

六 清理容器

# 清理掉所有处于终止状态的容器
docker container prune

七 查看网络

# 清理掉所有处于终止状态的容器
docker network ls

八 创建网络

# 创建网络
docker network create --driver bridge yournet

九 删除网络

# 删除网络
docker network rm 网络名字/Id号

十 查看数据挂载

# 查看数据表等
docker volume ls

十一 删除镜像和容器

# 删除镜像
docker rmi 镜像名字/Id号

# 删除容器
docker rm 容器名字/容器id

十二 运行容器

# 启动并运行容器,结果:会打印出容器的id号
docker run 
\ -p 6379:6379 
\ --name redis 
\ -v ./redis/redis.conf:/etc/redis/redis.conf 
\ -v ./redis/data:/data 
\ -d redis redis-server /etc/redis/redis.conf 

    
# 停止容器
docker stop 容器名字/id号

# 启动容器,id号只要能够区分即可无需写全部
docker start 容器id/名字 

# 进入容器
docker exec -it 容器id /bin/bash
docker exec -it 12427 /bin/bash
docker exec -it cbbebad44c59 /bin/sh

十三 容器文件 copy

# 文件拷贝
# 从宿主机拷贝到容器内部
docker cp 宿主机文件 容器id:容器路径
docker cp /home/a.txt 12427:/home

# 从容器中拷贝到宿主机
docker cp 容器id:容器路径 宿主机路径(起别名)
docker cp 427:home/a.txt a.txt

十四 容器使用的系统资源

# docker stats 命令用来显示容器使用的系统资源
docker stats
# [CONTAINER]:以短格式显示容器的 ID。
# [CPU %]:CPU 的使用情况。
# [MEM USAGE / LIMIT]:当前使用的内存和最大可以使用的内存。
# [MEM %]:以百分比的形式显示内存使用情况。
# [NET I/O]:网络 I/O 数据。
# [BLOCK I/O]:磁盘 I/O 数据。
# [PIDS]:PID 号。

# 如果不想持续的监控容器使用资源的情况
docker stats --no-stream
# 只想查看个别容器的资源使用情况
docker stats --no-stream registry 1493
# docker stats --no-stream  容器名称/ID 容器名称/ID ...
# docker容器直接退出,如何进入容器调试 
docker run --name upcontainer -it --entrypoint /bin/bash test:cmd 

十五 查看信息

# 查看主机的架构
arch

# 确定其架构
docker image inspect openjdk | grep Architecture

# 查看概要信息
docker info

# 查看机器上正在运行的容器
docker ps

# docker的版本
docker version

# 查看宿主机上所有的容器(包括停止的)
docker ps -a

# 获取容器/镜像的元数据
docker inspect 容器id

# 只查看容器ip地址
docker inspect --format='{{.NetworkSettings.IPAddress}}' 容器名称/容器ID

# 查看日志
docker logs yourcontainer 
# 例如:sudo docker logs cbbebad44c5 

# 实时查看docker容器日志
docker logs -f -t --tail 行数 容器名
# 例如: sudo docker logs -f -t --tail 50 cbbebad44c5
tail -f -n 100 xxx.log

# 显示容器使用的系统资源
docker stats 

# 查看每个容器占用的磁盘空间呢
docker system df -v

十六 启动 GPU 容器

这是尝试运行 GPU 容器的随记

# 运行镜像tensorflow/tensorflow
docker run --name testgpu01 -it --entrypoint /bin/bash tensorflow/tensorflow:latest-gpu 

# 运行容器 
$ docker run -it --rm tensorflow/tensorflow bash

#使用 Python 解释器启动 GPU 容器。
$ docker run -it --rm --runtime=nvidia tensorflow/tensorflow:latest-gpu python

这是一段 python 的测试脚本

# import tensorflow as tf;tf.test.gpu_device_name()
import tensorflow as tf;tf.__version__;tf.__path__

import tensorflow as tf;
physical_devices = tf.config.experimental.list_physical_devices('GPU')
if len(physical_devices) > 0:
    print("We got a GPU")
    tf.config.experimental.set_memory_growth(physical_devices[0], True)
else:
    print("Sorry, no GPU for you...")

运行 Jupyter 笔记本服务

$ docker run -it --rm -v $(realpath ~/notebooks):/tf/notebooks -p 8888:8888 tensorflow/tensorflow:latest-jupyter
使用您自己的笔记本目录(此处假设为~/notebooks)运行 Jupyter 笔记本服务器。要使用它,请localhost:8888在浏览器中导航到。

标签:容器,镜像,操作命令,查看,--,tensorflow,GPU,docker,随记
From: https://blog.csdn.net/u014394049/article/details/142052108

相关文章

  • 开源大模型占GPU显存计算方法
    运行大模型GPU占用计算公式:\(M=\frac{(P*4B)}{32/Q}*1/2\)M:以GB标识的GPU内存P:模型中的参数数量,例如一个7B模型有70亿参数4B:4个字节,表示用于每个参数的字节32:4个字节中有32位Q:应该用于加载模型的位数,例如16位、8位、4位1.2:表示在GPU内存中加载其......
  • PyTorch改为默认使用GPU
    PyTorch默认用CPU,改默认用GPU,importtorch后,用torch.set_default_device('cuda')改为默认使用GPU......
  • GPU池化技术保障智慧电网高效建设
    建设《新型电力系统》是能源互联网双碳目标下现阶段发展的核心发展形态。绿色、智能、互联已成为电力行业主旋律。人工智能是新一代电网和能源互联网的必然选择,电力人工智能将与未来新一代数据驱动的能源互联网和谐共生。当前国家电网已在电网安全与控制、输变电、配用电、新能源并......
  • GPU池化赋能智能制造
    2023年3月10日,“第六届智能工厂高峰论坛”在杭州隆重揭幕。本次会议由e-works数字化企业网、浙江制信科技有限公司主办,中国人工智能学会智能制造专业委员会、长三角新能源汽车产业链联盟、长三角(杭州)制造业数字化能力中心、浙江省智能工厂操作系统技术创新中心协办。趋动科技作为......
  • k8s的探针检测(附yaml)-随记
    1、概念:Kubernetes(k8s)中的探针是一种健康检查机制,用于监测Pod内容器的运行状况。主要包括以下三种类型的探针:2、探针的种类:liveness探针:在容器启动后执行探针的检测,检测容器是否正常运行readness探针:在容器初始化就绪,业务容器拉起后。执行就绪检测,如果检测通过说明业务容器可......
  • Linux 系统的操作命令
    Author:ACatSmilingSince:2024-09-05文件与目录结构Linux系统中,一切皆文件。Linux目录结构:[zeloud@localhost~]$cd/[zeloud@localhost/]$lsbinbootdevetchomeliblib64mediamntoptprocrootrunsbinsrvsystmpusrvar/bin:存......
  • GPU算力租用平台推荐
    国内知名云计算平台14:阿里云:国内领先的云计算服务提供商,GPU算力租用服务通过ECS(ElasticComputeService)实例提供。提供多种GPU实例类型,如NVIDIATeslaV100、P100等,适用于AI训练、视频编解码等应用。优势在于中国市场领先,在中国本地有广泛的用户基础和完善的服务......
  • 【大模型】使用 Xinference 部署本地模型,从GPU服务器到本地知识库搭建Dify【LLM大语言
    基本介绍基础信息GPU服务器获取基础安装基础信息安装显卡驱动配置显卡检查下载禁用nouveau系统自带驱动显卡驱动安装安装nvidia-docker下载配置验证Xinference部署docker部署官方文档模型下载glm-4-9b-chatEmbedding(向量)模型Rerank模型模型部署Embedding(向量)模型......
  • 一台Ubuntu22.04物理机搭建虚拟机云和容器云集群,通过安装ESXi、配置GPU透传、创建虚拟
    一台Ubuntu22.04物理机搭建虚拟机云和容器云集群,通过安装ESXi、配置GPU透传、创建虚拟机,然后在虚拟机上搭建集群。步骤1:安装ESXi并配置GPU透传下载和准备ESXi:从VMware官方网站下载ESXi镜像。使用Rufus等工具将镜像写入U盘,以便将其作为启动盘。安装ESXi:将U盘插......
  • 测试GPU的占用情况
    测试GPU的占用情况文章目录测试GPU的占用情况前言一、测试GPU的占用情况二、耗时统计总结前言本文简单介绍测试GPU占用情况和模型耗时统计的代码。一、测试GPU的占用情况统计脚本tegrastats--interval10>*.txtimportreimportnumpyasnp#定义正则......