docker安装
1.移除以前docker相关包
# sudo yum remove docker \
docker-client \
docker-client-latest \
docker-common \
docker-latest \
docker-latest-logrotate \
docker-logrotate \
docker-engine
2.配置yum源
# sudo yum install -y yum-utils
# sudo yum-config-manager \
--add-repo \
https://download.docker.com/linux/centos/docker-ce.repo
3.安装docker
# sudo yum install -y docker-ce docker-ce-cli containerd.io
4.启动
# systemctl enable docker --now
5.配置加速
# sudo mkdir -p /etc/docker
# sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://kfx5pfyb.mirror.aliyuncs.com"]
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
},
"storage-driver": "overlay2"
}
EOF
# sudo systemctl daemon-reload
# sudo systemctl restart docker
Docker是什么工作的?
Docker 是一个 Client - Server结构的系统,Docker的守护进程运行在主机上。通过Socket从客户端访问!
DockerServer 接收到 Docker-Client 的指令,就会执行这个命令!
Docker为什么比VM快?
-
Docker有着比虚拟机更少的抽象层。
-
docker 利用的是宿主机的内核,vm 需要是 Guest OS。
所以说,新建一个容器的时候,docker 不需要向虚拟机一样重新加载一个操作系统内核,避免引导。虚拟机是加载 Guest OS,分钟级别的,而docker 是利用宿主机的操作系统,省略了这个复杂的过程,秒级!
docker的常用命令
帮助命令
docker version #显示docker的版本信息
docker info #显示docker的系统信息,包括镜像和容器的数量
docker 命令 --help #帮助命令
帮助文档的地址:Reference documentation (docker.com)
镜像命令
docker images 查看所有本地的主机山的镜像
[root@docker ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
mytomcat 1.0 b4e8e0f5661d 4 days ago 475MB
mycentos tomcat f23d2543980f 5 days ago 634MB
mycentos_1 vim 07ca37f0a71b 5 days ago 463MB
#解释
REPOSITORY 镜像的仓库源
TAG 镜像的标签
IMAGE ID 镜像的id
CREATED 镜像的创建时间
SIZE 镜像的大小
# 可选项
-a, --all #列出所有镜像
-q, --quiet #只显示镜像的id
docker search 搜索镜像命令
[root@docker ~]# docker search mysql
NAME DESCRIPTION STARS OFFICIAL AUTOMATED
mysql MySQL is a widely used, open-source relation… 13997 [OK]
mariadb MariaDB Server is a high performing open sou… 5338 [OK]
percona Percona Server is a fork of the MySQL relati… 603 [OK]
phpmyadmin phpMyAdmin - A web interface for MySQL and M… 774 [OK]
# 可选项,通过收藏来过滤
--filter=STARS=3000 # 搜索出来的镜像就是STARS大于3000的
[root@docker ~]# docker search mysql --filter=STARS=3000
NAME DESCRIPTION STARS OFFICIAL AUTOMATED
mysql MySQL is a widely used, open-source relation… 13997 [OK]
mariadb MariaDB Server is a high performing open sou… 5338 [OK]
[root@docker ~]# docker search mysql --filter=STARS=6000
NAME DESCRIPTION STARS OFFICIAL AUTOMATED
mysql MySQL is a widely used, open-source relation… 13997 [OK]
docker pull 下载镜像
[root@docker ~]# docker pull mysql
Using default tag: latest # 如果不写 tag,默认就是 latest(最新版)
latest: Pulling from library/mysql
9bd56b05f662: Pull complete # 分层下载,docker image的核心 联合文件系统
78e32a9ae10c: Pull complete
a1e5e8b7ab26: Pull complete
787571554435: Pull complete
2196b088d320: Pull complete
7110b83b5540: Pull complete
3a87bf11fa6d: Pull complete
63b2fc823dcf: Pull complete
f77b236f8f2c: Pull complete
b5b4bafd2ab7: Pull complete
4fc4c1855df1: Pull complete
Digest: sha256:ff3828b105886f496e47eddced1676b2abd1419a40a65ac4ab387ba1c538a09f #签名
Status: Downloaded newer image for mysql:latest
docker.io/library/mysql:latest #真实地址
# 等价于它
docker pull mysql
docker pull docker.io/library/mysql:latest
# 指定版本下载
[rootakuangshen /]docker pull mysql:5.7
5.7:Pulling from library/mysql
5b54d594fba7:Already exists
07e7d6a8a868:Already exists
abd946892310:Already exists
dd8f4d07efa5:Already exists
076d396a6205:Already exists
cf6b2b93048f:Already exists
530904b4a8b7:Already exists
a37958cbebcf:Pull complete
04960017f638:Pu11comp1ete
e1285def0d2a:Pull complete
670cb3a9678e:Pull complete
Digest:sha256:e4d39b85118358ffef6adc5e8c7d00e49d20b25597e6ffdc994696f10e3dc8e2
Status:Downloaded newer image for mysql:5.7
docker.io/library/mysql:5.7
docker rmi 删除镜像
[root@docker ~]# docker rmi -f 镜像id # 删除指定的镜像
[root@docker ~]# docker rmi -f 镜像id 镜像id 镜像id 镜像id # 删除多个镜像
[root@docker ~]# docker rmi -f $(docker images -aq) #删除所有镜像
容器命令
说明:我们有了镜像才可以创建容器,linux,下载一个 centos 镜像来测试学习
docker pull centos
新建容器并启动
docker run [可选参数] image
# 参数说明
--name="Name" 容器名字 tomcat01 tomcat02, 用来区分容器
-d 后台方式运行
-it 使用交互式运行,进入容器查看内容
-p 指定容器的端口 -p 8080:8080
-p ip:主机端口:容器端口
-p 主机端口:容器端口(常用)
-p 容器端口
容器端口
-P 随机指定端口
# 测试,启动并进入容器
[root@docker /]# docker run -it centos /bin/bash
[root@0715f7a35198 /]# ls #查看容器内的centos,基础版本,很多命令都是不完善的!
bin etc lib lost+found mnt proc run srv tmp var
dev home lib64 media opt root sbin sys usr
#从容器中退回主机
[root@0715f7a35198 /]# exit
exit
[root@docker /]# ls
bin boot dev home lib64 mnt proc run srv tmp var
blog data etc lib media opt root sbin sys usr
列出所有的运行的容器
# docker ps 命令
#列出当前正在运行的容器
-a #列出所有容器
-n=x #显示最近x个创建的容器
-q #只显示容器的id
[root@docker /]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
[root@docker /]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
0715f7a35198 centos "/bin/bash" 2 minutes ago Exited (0) About a minute ago strange_cerf
退出容器
exit #停止并退出容器
Ctrl + p + q #不停止容器并退出
删除容器
docker rm 容器id #删除指定的容器,不能删除正在运行的容器
docker rm -f $(docker ps -aq) #删除所有容器
docker ps -a -q | xargs docker rm #删除所有容器
启动和停止容器操作
docker start 容器id #启动容器
docker restart 容器id #重启容器
docker stop 容器id #停止当前正在运行的容器
docker kill 容器id #强制停止当前容器
常用基本命令
后台启动容器
# docker run -d 镜像名
[root@docker ~]# docker run -d centos
# 问题:docker ps发现centos停止了
#常见的坑:docker容器使用后台运行,就必须要有一个前台进程,docker发现没有应用,就会自动停止
# nginx:容器启动后,发现自己没有提供服务,就会立刻停止,就是没有程序了
查看日志
docker logs -f -t --tail 容器,没有日志
# 自己编写一段shell脚本
[root@docker ~]# docker run -d centos /bin/sh -c "while true;do echo luyu;sleep 2;done"
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
3412cfca1dfd centos "/bin/sh -c 'while t…" 17 seconds ago Up 16 seconds recursing_heyrovsky
# 显示日志
-tf # 显示日志
--tail number # 要显示日志的条数
[root@docker ~]# docker logs -tf --tail 10 3412cfca1dfd
2023-04-04T06:24:25.127724893Z luyu
2023-04-04T06:24:27.130005880Z luyu
2023-04-04T06:24:29.131720843Z luyu
2023-04-04T06:24:31.133974078Z luyu
查看容器中进程信息 ps
# 命令 docker top 容器id
[root@docker ~]# docker top 3412cfca1dfd
UID PID PPID C STIME TTY
root 54573 54554 0 14:27 ?
root 54626 54573 0 14:27 ?
查看镜像元数据
# 命令 docker inspect 容器id
# 测试
[root@docker ~]# docker inspect 3412cfca1dfd
[
{
"Id": "3412cfca1dfd9008596c9150c9a3a601bc93ecb21ef5b6ce93c3070118afde87",
"Created": "2023-04-04T06:23:18.772615495Z",
"Path": "/bin/sh",
"Args": [
"-c",
"while true;do echo luyu;sleep 2;done"
],
"State": {
"Status": "running",
"Running": true,
"Paused": false,
"Restarting": false,
"OOMKilled": false,
"Dead": false,
"Pid": 54573,
"ExitCode": 0,
"Error": "",
"StartedAt": "2023-04-04T06:27:57.828911298Z",
"FinishedAt": "2023-04-04T06:25:26.305504525Z"
},
"Image": "sha256:5d0da3dc976460b72c77d94c8a1ad043720b0416bfc16c52c45d4847e53fadb6",
"ResolvConfPath": "/var/lib/docker/containers/3412cfca1dfd9008596c9150c9a3a601bc93ecb21ef5b6ce93c3070118afde87/resolv.conf",
"HostnamePath": "/var/lib/docker/containers/3412cfca1dfd9008596c9150c9a3a601bc93ecb21ef5b6ce93c3070118afde87/hostname",
"HostsPath": "/var/lib/docker/containers/3412cfca1dfd9008596c9150c9a3a601bc93ecb21ef5b6ce93c3070118afde87/hosts",
"LogPath": "/var/lib/docker/containers/3412cfca1dfd9008596c9150c9a3a601bc93ecb21ef5b6ce93c3070118afde87/3412cfca1dfd9008596c9150c9a3a601bc93ecb21ef5b6ce93c3070118afde87-json.log",
"Name": "/recursing_heyrovsky",
"RestartCount": 0,
"Driver": "overlay2",
"Platform": "linux",
"MountLabel": "",
"ProcessLabel": "",
"AppArmorProfile": "",
"ExecIDs": null,
"HostConfig": {
"Binds": null,
"ContainerIDFile": "",
"LogConfig": {
"Type": "json-file",
"Config": {}
},
"NetworkMode": "default",
"PortBindings": {},
"RestartPolicy": {
"Name": "no",
"MaximumRetryCount": 0
},
"AutoRemove": false,
"VolumeDriver": "",
"VolumesFrom": null,
"ConsoleSize": [
33,
70
],
"CapAdd": null,
"CapDrop": null,
"CgroupnsMode": "host",
"Dns": [],
"DnsOptions": [],
"DnsSearch": [],
"ExtraHosts": null,
"GroupAdd": null,
"IpcMode": "private",
"Cgroup": "",
"Links": null,
"OomScoreAdj": 0,
"PidMode": "",
"Privileged": false,
"PublishAllPorts": false,
"ReadonlyRootfs": false,
"SecurityOpt": null,
"UTSMode": "",
"UsernsMode": "",
"ShmSize": 67108864,
"Runtime": "runc",
"Isolation": "",
"CpuShares": 0,
"Memory": 0,
"NanoCpus": 0,
"CgroupParent": "",
"BlkioWeight": 0,
"BlkioWeightDevice": [],
"BlkioDeviceReadBps": [],
"BlkioDeviceWriteBps": [],
"BlkioDeviceReadIOps": [],
"BlkioDeviceWriteIOps": [],
"CpuPeriod": 0,
"CpuQuota": 0,
"CpuRealtimePeriod": 0,
"CpuRealtimeRuntime": 0,
"CpusetCpus": "",
"CpusetMems": "",
"Devices": [],
"DeviceCgroupRules": null,
"DeviceRequests": null,
"MemoryReservation": 0,
"MemorySwap": 0,
"MemorySwappiness": null,
"OomKillDisable": false,
"PidsLimit": null,
"Ulimits": null,
"CpuCount": 0,
"CpuPercent": 0,
"IOMaximumIOps": 0,
"IOMaximumBandwidth": 0,
"MaskedPaths": [
"/proc/asound",
"/proc/acpi",
"/proc/kcore",
"/proc/keys",
"/proc/latency_stats",
"/proc/timer_list",
"/proc/timer_stats",
"/proc/sched_debug",
"/proc/scsi",
"/sys/firmware"
],
"ReadonlyPaths": [
"/proc/bus",
"/proc/fs",
"/proc/irq",
"/proc/sys",
"/proc/sysrq-trigger"
]
},
"GraphDriver": {
"Data": {
"LowerDir": "/var/lib/docker/overlay2/ab3b296cf931d8ab8fdd20b2a06d1ae6eb6896ff1b40a599acef4af23657575b-init/diff:/var/lib/docker/overlay2/d0ba8aad80d00eaa6516baba7d0e966e376fa9e3821461730a1b2ac23f65eea2/diff",
"MergedDir": "/var/lib/docker/overlay2/ab3b296cf931d8ab8fdd20b2a06d1ae6eb6896ff1b40a599acef4af23657575b/merged",
"UpperDir": "/var/lib/docker/overlay2/ab3b296cf931d8ab8fdd20b2a06d1ae6eb6896ff1b40a599acef4af23657575b/diff",
"WorkDir": "/var/lib/docker/overlay2/ab3b296cf931d8ab8fdd20b2a06d1ae6eb6896ff1b40a599acef4af23657575b/work"
},
"Name": "overlay2"
},
"Mounts": [],
"Config": {
"Hostname": "3412cfca1dfd",
"Domainname": "",
"User": "",
"AttachStdin": false,
"AttachStdout": false,
"AttachStderr": false,
"Tty": false,
"OpenStdin": false,
"StdinOnce": false,
"Env": [
"PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
],
"Cmd": [
"/bin/sh",
"-c",
"while true;do echo luyu;sleep 2;done"
],
"Image": "centos",
"Volumes": null,
"WorkingDir": "",
"Entrypoint": null,
"OnBuild": null,
"Labels": {
"org.label-schema.build-date": "20210915",
"org.label-schema.license": "GPLv2",
"org.label-schema.name": "CentOS Base Image",
"org.label-schema.schema-version": "1.0",
"org.label-schema.vendor": "CentOS"
}
},
"NetworkSettings": {
"Bridge": "",
"SandboxID": "893e3159b45afa61f5b34496751c0cbfa8c009eb7eccafb0775f0b04b45dd943",
"HairpinMode": false,
"LinkLocalIPv6Address": "",
"LinkLocalIPv6PrefixLen": 0,
"Ports": {},
"SandboxKey": "/var/run/docker/netns/893e3159b45a",
"SecondaryIPAddresses": null,
"SecondaryIPv6Addresses": null,
"EndpointID": "15c8f2c40a2711d5b20b43a244709b1e4243234b727fa5783eaf323bcd09cb36",
"Gateway": "172.17.0.1",
"GlobalIPv6Address": "",
"GlobalIPv6PrefixLen": 0,
"IPAddress": "172.17.0.2",
"IPPrefixLen": 16,
"IPv6Gateway": "",
"MacAddress": "02:42:ac:11:00:02",
"Networks": {
"bridge": {
"IPAMConfig": null,
"Links": null,
"Aliases": null,
"NetworkID": "28865a1cc132372c6db86d7aea21cf259bd65e2f7fa5dd3f4ba5326dd92c5474",
"EndpointID": "15c8f2c40a2711d5b20b43a244709b1e4243234b727fa5783eaf323bcd09cb36",
"Gateway": "172.17.0.1",
"IPAddress": "172.17.0.2",
"IPPrefixLen": 16,
"IPv6Gateway": "",
"GlobalIPv6Address": "",
"GlobalIPv6PrefixLen": 0,
"MacAddress": "02:42:ac:11:00:02",
"DriverOpts": null
}
}
}
}
]
进入当前正在运行的容器
# 我们通常容器都是使用后台方式运行的,需要进入容器,修改一些配置
# 命令
docker exec -it 容器id /bin/bash
# 测试
[root@docker ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
3412cfca1dfd centos "/bin/sh -c 'while t…" 13 minutes ago Up 8 minutes recursing_heyrovsky
[root@docker ~]# docker exec -it 3412cfca1dfd /bin/bash
[root@3412cfca1dfd /]# ls
bin etc lib lost+found mnt proc run srv tmp var
dev home lib64 media opt root sbin sys usr
[root@3412cfca1dfd /]# ps -ef
UID PID PPID C STIME TTY TIME CMD
root 1 0 0 06:27 ? 00:00:00 /bin/sh -c while tru
root 269 0 0 06:36 pts/0 00:00:00 /bin/bash
root 288 1 0 06:36 ? 00:00:00 /usr/bin/coreutils -
root 289 269 0 06:36 pts/0 00:00:00 ps -ef
# 方法二
docker attach 容器id
# 测试
[root@3412cfca1dfd /]# dcoker attach 3412cfca1dfd
正在执行当前的代码。。。
# docker exec # 进入容器后开启一个新的终端,可以在里面操作(常用)
# docker attach # 进入容器正在执行的终端,不会启动新的进程!
从容器内拷贝文件到主机上
# 进入docker容器内部
[root@docker ~]# docker run -it centos /bin/bash
[root@ea3c92240a6c /]# cd /home
# 在容器内新建一个文件
[root@ea3c92240a6c home]# touch test.java
[root@ea3c92240a6c home]# ls
test.java
[root@ea3c92240a6c home]# [root@docker ~]#
# 查看当前主机目录下
[root@docker ~]# ls /home
[root@docker ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ea3c92240a6c centos "/bin/bash" 55 seconds ago Up 54 seconds exciting_hawking
3412cfca1dfd centos "/bin/sh -c 'while t…" 24 minutes ago Up 19 minutes recursing_heyrovsky
# 将这个文件从容器拷贝到主机上
[root@docker ~]# docker cp ea3c92240a6c:/home/test.java /home
Preparing to copy...
Successfully copied 1.536kB to /home
[root@docker ~]# ls /home
test.java
# 拷贝是一个手动的过程,未来我们使用 -v 卷的技术,可以实现
练习
docker 安装nginx
# 1、搜索镜像 search 建议使用dockerHub搜索,可以看到帮助文档
# 2、下载镜像 pull
# 3、运行测试
[root@docker ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
nginx latest 080ed0ed8312 7 days ago 142MB
centos latest 5d0da3dc9764 18 months ago 231MB
# -d 后台运行
# --name 给容器命名
# -p 端口映射(宿主机端口:容器端口)
[root@docker ~]# docker run -d --name nginx01 -p 3344:80 nginx
7a7ee41c985808d6ba7d7e41b86c252fa5bbdceac9d07a9673f4e9bf7c17b4d0
[root@docker ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
7a7ee41c9858 nginx "/docker-entrypoint.…" 5 seconds ago Up 5 seconds 0.0.0.0:3344->80/tcp, :::3344->80/tcp nginx01
[root@docker ~]# curl localhost:3344
# 进入容器
[root@docker ~]# docker exec -it nginx01 /bin/bash
root@7a7ee41c9858:/# whereis nginx
nginx: /usr/sbin/nginx /usr/lib/nginx /etc/nginx /usr/share/nginx
root@7a7ee41c9858:/# cd /etc/nginx
root@7a7ee41c9858:/etc/nginx# ls
conf.d mime.types nginx.conf uwsgi_params
fastcgi_params modules scgi_params
思考问题:我们每次改动nginx配置文件,都需要进入容器内部?十分的麻烦,我要是可以在容器外部提供一个映射路径,达到在容器修改文件名,容器内部就可以自动修改? -v 数据卷!
docker安装一个tomcat
# 官方的使用
docker run -it --rm tomcat:9.0
# 我们之前的启动都是后台,停止了容器之后,容器还是可以查到 docker run -it --rm,一般用来测试,用完就删除
# 下载再启动
dcoker pull tomcat
# 启动运行
docker run -d -p 3355:8080 --name tomcat01 tomcat
# 测试访问没有问题
# 进入容器
[root@docker ~]# docker exec -it tomcat01 /bin/bash
# 发现问题:1.linux命令少了。2.没有webapps。阿里云镜像的原因。默认是最小的镜像,所有不必要的都剔除掉
# 保证最小可运行的环境!
思考问题:我们以后要部署项目,如果每次都要进入容器是不是十分麻烦?我要是可以在容器外部提供一个映射路径,webapps,我们在外部放置项目,就自动同步到内部就好了!
部署 es + kibana
# es 暴露的端口很多!
# es 十分的耗内存
# es 的数据一般需要放置到安全目录!挂载
# --net somenetwork ? 网络配置
# 启动 elasticsearch
docker run -d --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:7.6.2
# 启动了 linux就卡住了 docker stats 查看容器cpu的状态
# es是十分耗内存的,1.xG
# 查看 docker stats
CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS
8e0768c9fb4d elasticsearch 0.33% 1.229GiB / 3.683GiB 33.39% 1.6kB / 1.3kB 8.19kB / 2.06MB 46
# 测试一下 es 是否成功了
[root@docker ~]# curl localhost:9200
{
"name" : "8e0768c9fb4d",
"cluster_name" : "docker-cluster",
"cluster_uuid" : "2uXf7N7sS5qNiaTpGHFfjg",
"version" : {
"number" : "7.6.2",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "ef48eb35cf30adf4db14086e8aabd07ef6fb113f",
"build_date" : "2020-03-26T06:34:37.794943Z",
"build_snapshot" : false,
"lucene_version" : "8.4.0",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
# 赶紧关闭,增加内存的限制,修改配置文件 -e 环境配置修改
docker run -d --name elasticsearch02 -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx512m" elasticsearch:7.6.2
# 查看 docker stats
CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS
9df04a70630c elasticsearch02 0.46% 378.6MiB / 3.683GiB 10.04% 656B / 0B 0B / 1.81MB 47
#
[root@docker ~]# curl localhost:9200
{
"name" : "9df04a70630c",
"cluster_name" : "docker-cluster",
"cluster_uuid" : "xzBizN5OTrOYRzD_JwkjKQ",
"version" : {
"number" : "7.6.2",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "ef48eb35cf30adf4db14086e8aabd07ef6fb113f",
"build_date" : "2020-03-26T06:34:37.794943Z",
"build_snapshot" : false,
"lucene_version" : "8.4.0",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
使用kibana连接es? 思考网络如何才能连接过去
可视化
Docker镜像讲解
镜像是什么
镜像是一种轻量级、可执行的独立软件包,用来打包软件运行环境和基于运行环境开发的软件,它包含运行某个软件所需的所有内容,包括代码、运行时、库、环境变量和配置文件。
所有的应用,直接打包docker镜像,就可以直接跑起来!
如何得到镜像:
- 从远程仓库下载
- 朋友拷贝
- 自己制作一个镜像 DockerFile
Docker镜像加载原理
UnionFS(联合文件系统)
UnionFS(联合文件系统):Union文件系统(UnionFS)是一种分层、轻量级并且高性能的文件系统,它支持对文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下(unite several directories into a single virtual filesystem)。Union文件系统是Docker镜像的基础。镜像可以通过分层来进行继承,基于基础镜像(没有父镜像),可以制作各种具体的应用镜像。
特性:一次同时加载多个文件系统,但从外面看起来,只能看到一个文件系统,联合加载会把各层文件系统叠加起来,这样最终的文件系统会包含所有底层的文件和目录。
Docker镜像加载原理
docker的镜像实际上由一层一层的文件系统组成,这种层级的文件系统UnionFS。
bootfs(boot file system)主要包含bootloader和kernel,bootloader主要是引导加载kernel,linux刚启动时会加载bootfs文件系统,在Docker镜像的最底层是bootfs。这一层与我们典型的linux/Unix系统是一样的,包含boot加载器和内核。当boot加载完成之后整个内核就都在内存中了,此时内存的使用权已由bootfs转交给内核,此时系统也会卸载bootfs。
rootfs(root file system),在bootfs之上。包含的就是典型linux系统中的/dev,/proc,/bin,/etc等标准目录和文件。rootfs就是各种不同的操作系统发行版,比如Ubuntu,Centos等等。
平时我们安装进虚拟机的CentOS都是好几个G,为什么Docker这里才200M?
对于一个精简的OS,rootfs可以很小,只需要包含最基本的命令,工具和程序库就可以了,因为底层直接用Host的kernel,自己只需要提供rootfs就可以了。由此可见对于不同的linux发行版,bootfs基本是一致的,rootfs会有差别,因此不同的发行版可以公用bootfs。
虚拟机是分钟级别,容器是秒级!
分层理解
分层的镜像
我们可以去下载一个镜像,注意观察下载的日志输出,可以看到是一层一层的在下载
思考:为什么Docker镜像要采用这种分层的结构呢?
最大的好处,我觉得莫过于是资源共享了!比如有多个镜像都是从相同的Base镜像构建而来,那么宿主机只需要在磁盘上保留一份base镜像,同时内存中也只需要加载一份base镜像,这样就可以为所有的容器服务了,而且镜像的每一层都可以被共享。
查看镜像分层的方式可以通过docker image inspect命令!
[root@docker ~]# docker image inspect redis:latest
[
// ......
"RootFS": {
"Type": "layers",
"Layers": [
"sha256:3af14c9a24c941c626553628cf1942dcd94d40729777f2fcfbcd3b8a3dfccdd6",
"sha256:79f41069ccc18bcd9600999108724c0f2e6454fdcdee09fc594166c7184f0244",
"sha256:2cf793f55eadaecdcc5c2fdf7d56c1cd3477c29b4a987f5c0005e5e19c234cc8",
"sha256:d4e8b2ef264eedaa9f75ab229b7da2b311961e1fabd19d6ade682f9779f15d7e",
"sha256:eb86ff5c5e2997063250da313143e7693468b8e35f7f239064eda104e6afbaa7",
"sha256:4324b0b9966a5ac99b470ace4ff3b7a595cb8ed3e3969b7492933a06d85bbb55"
]
},
]
理解:
所有的Docker镜像都起始于一个基础镜像层,当进行修改或者增加新的内容时,就会在当前镜像层之上,创建新的镜像层。
例子:假如基于Ubuntu Linux 16.04创建一个新的镜像,这就是新镜像的第一层;如果在该镜像中添加Python包,就会在基础镜像层之上创建第二个镜像层;如果继续添加一个安全补丁,就会创建第三个镜像层。
该镜像当前已经包含3个镜像层,如下图所示(这只是一个用于演示的很简单的例子)。
在添加额外的镜像层的同时,镜像始终保持是当前所有镜像的组合,理解这一点非常重要。下图中举了一个简单的例子,每个镜像层包含3个文件,而镜像包含了来自两个镜像层的6个文件。
上图中的镜像层跟之前图中的略有区别,主要目的是便于展示文件。
下图中展示了一个稍微复杂的三层镜像,在外部看起来整个镜像只有6个文件,这是因为最上层中的文件7是文件5的一个更新版本。
这种情况下,上层镜像层中的文件覆盖了底层镜像层中的文件。这样就使得文件的更新版本作为一个新镜像添加到镜像当中。
Docker通过存储引擎(新版本采用快照机制)的方式来实现镜像层堆栈,并保证多镜像层对外展示为统一的文件系统。
Linux上可用的存储引擎有AUFS、Overlay2、Device Mapper、Btrfs以及ZFS。顾名思义,每种存储引擎都基于Linux中对应的Docker在Windows上仅支持windowsfilter一种存储引擎,该引擎基于NTFS文件系统之上实现了分层和CoW[1]。
下图展示了与系统显示相同的三层镜像。所有镜像层堆叠并合并,对外提供统一的视图。
特点
Docker镜像都是只读的,当容器启动时,一个新的可写层被加载到镜像的顶部!
这一层就是我们通常说的容器层,容器之下的都叫镜像层!
如何提交一个自己的镜像
commit镜像
docker commit 提交容器成为一个新的副本
# 命令和git原理类似
docker commit -m="提交的描述信息" -a="作者" 容器id 目标镜像名:[TAG]
实战测试
# 1、启动一个默认的tomcat
# 2、发现这个默认的tomcat 是没有webapps应用, 镜像的原因,官方镜像默认webapps下面是没有文件的!
# 3、我自己拷贝进去了基本的文件
# 4、将我们操作过的容器通过commit提交为一个镜像!我们以后就使用我们修改过的镜像即可,这就是我们自己的一个修改的镜像
学习方式说明:理解概念,但是一定要实践,最后实践和理论相结合一次搞定这个知识
如果你想要保存当前容器的状态,就可以通过commit来提交,获得一个镜像,就好比我们以前学习VM时候,快照!
到了这里才算是入门Docker!
容器数据卷
什么是容器数据卷
docker的理念回顾
将应用和环境打包成一个镜像!
数据?如果数据都在容器中,那么我们容器删除,数据就会丢失!需求:数据可以持久化
MySQL,容器删了,删库跑路!需求:MySQL数据可以存储在本地!
容器之间可以有一个数据共享的技术!Docker容器中产生的数据,同步到本地!
这就是卷技术!目录的挂载,将我们容器内的目录,挂载到Linux上面!
总结一句话:容器的持久化和同步操作!容器间也是可以数据共享的!
使用数据卷
方式一:直接使用命令来挂载 -v
docker run -it -v 主机目录:容器中目录
# 测试
[root@docker ~]# docker run -it -v /home/ceshi:/home centos
# 启动起来时候我们可以通过 docker inspect 容器id 查看容器详细信息
测试文件的同步
再来测试
1、停止容器
2、宿主机上修改文件
3、启动容器
4、容器内的数据依旧是同步的!
好处:以后修改只需要在本地修改即可,容器内会自动同步!
实战:安装MySQL
思考:MySQL的数据持久化的问题!
# 获取镜像
[root@docker ~]# docker pull mysql:5.7
# 运行容器,需要做数据挂载! # 安装启动mysql,需要配置密码的,这是要注意点!
# 官方测试:docker run --name some-mysql -e MYSQL_ROOT_PASSWORD=my-secret-pw -d mysql:tag
# 启动mysql
-d 后台运行
-p 端口映射
-v 数据卷挂载
-e 环境配置
--name 容器命名
[root@docker ~]# docker run -d -p 3310:3306 -v /home/mysql/conf:/etc/mysql/conf.d -v /home/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=000000 --name mysql01 mysql:5.7
# 启动成功之后,我们在本地使用navicat测试连接
# navicat---连接到服务器的3310---3310和容器内的3306映射,这个时候我们就可以连接上了!
# 在本地测试创建数据库,查看一下映射的路径是否ok!
假设将容器删除,挂载到本地的数据卷依旧没有丢失,这就实现了容器数据持久化功能!
具名和匿名挂载
# 匿名挂载
-v 容器内路径!
docker run -d -P -v /etc/nginx nginx
# 查看所有的 volume 的情况
[root@docker ~]# docker volume ls
DRIVER VOLUME NAME
local 1e6da8da209fdaacc4aea58d720777965a16898154dd3f145db60b9cf09baed5
local 1f61f2c497944bd74ce6ccba914cc8f2f83a4ff1fe020e4586684a3c17ab9e2b
local 2f4b13ecbefb35ccbb7d9cc2cca77c457ba0c9ba9e218d042cf279f1aad925c6
local 5b32e5c117dc3b7781c12400a3a915f3fc5470619b8f6d2f804125029a2b2f4e
# 这里发现,这种就是匿名挂载,在-v只写了容器内的路径,没有写容器外的路径!
# 具名挂载
# 通过 -v 卷名:容器内路径
[root@docker ~]# docker run -d -P -v juming-nginx:/etc/nginx --name nginx02 nginx
db1999eae79f6be64987bdd2e7784df62da3407888e875c4a3959248c7d2b94a
[root@docker ~]# docker volume ls
DRIVER VOLUME NAME
local b33c60a60a2b1e661ffd4b582e4b7112c340a811d8c7925f21e7744c9f7ee2af
local b1828b8145ccdf3fa791dbeb5ffd09237908262021b9f8a23e84cc6789528a8b
local b2352cb5d8ebd89c7dd2044d677a9899518903f5648ac84d92b1acf34ee7571c
local c2db9cb9bcbfabde5c2c5637a706fe1077122cbe7e189f3234ee9986a5ae5213
local d574bff9c70332597766137f387e683f50306d8243ee9a2e3f06623e235b681c
local juming-nginx
# 查看一下这个卷
所有的docker容器内的卷,没有指定目录的情况下都是在/var/lib/docker/volumes/xxxx/_data
我们通过具名挂载可以方便的找到我们的一个卷,大多数情况在使用的具名挂载
# 如何确定是具名挂载还是匿名挂载,还是指定路径挂载!
-v 容器内路径 #匿名挂载
-v 卷名:容器内路径 # 具名挂载
-v /宿主机路径:容器内路径 # 指定路径挂载!
拓展:
# 通过 -v 容器内路径:ro rw 改变读写权限
ro readonly # 只读
rw readwrite # 可读可写
# 一旦这个设置了容器权限,容器对我们挂载出来的内容就有了限定了!
docker run -d -P -v juming-nginx:/etc/nginx:ro --name nginx02 nginx
docker run -d -P -v juming-nginx:/etc/nginx:rw --name nginx02 nginx
# ro 只要看到ro就说明这个路径只能通过宿主机来操作,容器内部是无法操作!
初始Dockerfile
Dockerfile就是用来构建docker镜像的构建文件!命令脚本!
通过这个脚本可以生成镜像,镜像是一层一层的,脚本一个个命令,每个命令都是一层!
# 创建一个dockerfile文件,名字可以随机 建议 Dockerfile
# 文件中的内容 指令(大写) 参数
FROM centos
VOLUME ["volume01","volume02"]
CMD echo "-----end-----"
CMD /bin/bash
# 这里的每个命令,就是镜像的一层!
# 启动自己写的容器
这个卷和外部一定有一个同步的目录!
查看一下卷挂载的路径
测试一下刚才的文件是否同步出去了!
这种方式我们未来使用的十分多,因为我们通常会构建自己的镜像!
假设构建镜像时候没有挂载卷,要手动镜像挂载 -v 卷名:容器内路径!
数据卷容器
什么是数据卷容器
命名的容器已挂载数据卷
,其他的容器通过挂载这个容器(父容器)实现数据共享,挂载数据卷的容器,称为数据卷容器。通过数据卷容器可以实现容器间的数据共享。
添加数据卷容器
docker run -it/-d -p 主机端口:容器端口 --name=容器名称 --volumes-from 数据卷容器ID/数据卷容器名称 生成数据卷容器的镜像ID/镜像名称[:版本号]
多个mysql同步数据!
多个mysql实现数据共享
[root@docker ~]# docker run -d -p 3310:3306 -v /etc/mysql/conf.d -v /var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 --name mysql01 mysql:5.7
[root@docker ~]# docker run -d -p 3311:3306 -e MYSQL_ROOT_PASSWORD=123456 --volumes-form mysql01 --name mysql02 mysql:5.7
# 这个时候,就可以实现两个容器数据同步!
结论:
容器之间配置信息的传递,数据卷容器的生命周期一直持续到没有容器使用为止。
但是一旦你持久化到了本地,这个时候,本地的数据是不会删除的!
DockerFile
DockerFile介绍
dockerfile是用来构建docker镜像的文件!命令参数脚本!
构建步骤:
- 编写一个 dockerfile 文件
- docker build 构建成一个镜像
- docker run 运行镜像
- docker push 发布镜像(DockerHub、阿里云镜像仓库!)
查看官方是怎么做的?
很多官方镜像都是基础包,很多功能没有,我们通常会自己搭建自己的镜像!
官方既然可以制作镜像,那我们也可以!
DockerFile构建过程
基础知识:
- 每个保留关键字(指令)都是必须大写字母
- 执行从上到下顺序执行
-
表示注释
- 每个指令都会创建提交一个新的镜像层,并提交!
dockerfile是面向开发的,我们以后要发布项目,做镜像,就需要编写dockerfile文件,这个文件十分简单!
Docker镜像逐渐成为企业交付的标准,必须要掌握!
步骤:开发 部署 运维。。。缺一不可!
Dockerfile:构建文件,定义了一切的步骤,源代码
DockerImages:通过DockerFile构建生成的镜像,最终发布和运行的产品!
Docker容器:容器就是镜像运行起来提供服务器
DockerFile的指令
以前的话我们都是使用别人的,现在我们知道了这些指令后,自己来练习写一个镜像!
FROM # 基础镜像,一切从这里开始构建
MAINTAINER # 镜像是谁写的,姓名+<邮箱>
RUN # 镜像构建的时候需要运行的命令
ADD # 步骤:tomcat镜像,这个tomcat压缩包!添加内容
WORKDIR # 镜像的工作目录
VOLUME # 挂载的目录
EXPOSE # 暴露端口配置
CMD # 指定这个容器启动的时候要运行的命令,只有最后一个会生效,可被替代
ENTRYPOINT # 指定这个容器启动的时候要运行的命令,可以追加命令
ONBUILD # 当构建一个被继承 DockerFile 这个时候就会运行 ONBUILD 的指令。触发指令。
COPY # 类似ADD,将我们文件拷贝到镜像中
ENV # 构建的时候设置环境变量!
实战测试
Docker Hub中99%镜像都是从这个基础镜像过来的FROM scratch,然后配置需要的软件和配置来进行的构建
创建一个自己的centos
# 1.编写DockerFile的文件
[root@docker dockerfile]# cat dockerfile-centos
FROM centos:7
MAINTAINER luyu<[email protected]>
ENV MYPATH /usr/local
WORKDIR $MYPATH
RUN yum -y install vim
RUN yum -y install net-tools
EXPOSE 80
CMD echo $MYPATH
CMD echo "----end----"
CMD /bin/bash
# 2.通过这个文件构建镜像
# 命令 docker build -f dockerfile文件路径 -t 镜像名:[tag] .
[root@docker dockerfile]# docker build -f dockerfile-centos -t mycento
s:1.0 .
[+] Building 12.4s (8/8) FINISHED
=> [internal] load .dockerignore 0.0s
=> => transferring context: 2B 0.0s
=> [internal] load build definition from dockerfile-centos 0.0s
=> => transferring dockerfile: 253B 0.0s
=> [internal] load metadata for docker.io/library/centos:7 0.0s
=> [1/4] FROM docker.io/library/centos:7 0.0s
=> [2/4] WORKDIR /usr/local 0.0s
=> [3/4] RUN yum -y install vim 9.8s
=> [4/4] RUN yum -y install net-tools 1.7s
=> exporting to image 0.8s
=> => exporting layers 0.8s
=> => writing image sha256:3749ec1e6047b36c0af2c94775db2bb2b2e0e8115b2d62768baf2c5b79973db5 0.0s
=> => naming to docker.io/library/mycentos:1.0 0.0s
[root@docker dockerfile]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
mycentos 1.0 3749ec1e6047 23 seconds ago 640MB
mysql latest 412b8cc72e4a 3 days ago 531MB
# 3.测试运行
我们可以列出本地镜像的变更历史
我们平时拿到一个镜像,可以研究一下它是怎么做的了?
CMD 和 ENTRYPOINT 的区别
CMD # 指定这个容器启动的时候要运行的命令,只有最后一个会生效,可被替代
ENTRYPOINT # 指定这个容器启动的时候要运行的命令,可以追加命令
测试 CMD
# 编写 dockerfile文件
[root@docker dockerfile]# cat dockerfile-cmd-test
FROM centos:7
CMD ["ls","-a"]
# 构架镜像
[root@docker dockerfile]# docker build -f dockerfile-cmd-test -t cmdtest .
# run运行,发现我们的ls -a命令生效
[root@docker dockerfile]# docker run 469e4ae03e69
.
..
.dockerenv
anaconda-post.log
bin
dev
etc
home
lib
lib64
。。。
# 想追加一个命令 -l 理想:ls -al
[root@docker dockerfile]# docker run 469e4ae03e69 -ldocker: Error response from daemon: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: exec: "-l": executable file not found in $PATH: unknown.
ERRO[0000] error waiting for container:
# cmd的情况下 -l 替换了CMD ["ls","-a"]命令,-l不是命令所以报错!
测试 ENTRYPOINT
[root@docker dockerfile]# vim dockerfile-cmd-entrypoint
[root@docker dockerfile]# cat dockerfile-cmd-entrypoint
FROM centos:7
ENTRYPOINT ["ls","-a"]
[root@docker dockerfile]# docker build -f dockerfile-cmd-entrypoint -t entrypoint-test .
[+] Building 0.0s (5/5) FINISHED
=> [internal] load build definition from dockerfile-cmd-entryp 0.0s
=> => transferring dockerfile: 89B 0.0s
=> [internal] load .dockerignore 0.0s
=> => transferring context: 2B 0.0s
=> [internal] load metadata for docker.io/library/centos:7 0.0s
=> CACHED [1/1] FROM docker.io/library/centos:7 0.0s
=> exporting to image 0.0s
=> => exporting layers 0.0s
=> => writing image sha256:62f4eae547ea97ebca6794582642955662d 0.0s
=> => naming to docker.io/library/entrypoint-test 0.0s
[root@docker dockerfile]# docker run 62f4eae547ea
.
..
.dockerenv
anaconda-post.log
bin
dev
etc
home
lib
lib64
media
mnt
opt
proc
root
run
sbin
srv
sys
tmp
usr
var
# 我们的追加命令,是直接拼接在我们的 ENTRYPOINT 命令后面!
[root@docker dockerfile]# docker run 62f4eae547ea -l
total 12
drwxr-xr-x 1 root root 6 Apr 10 12:40 .
drwxr-xr-x 1 root root 6 Apr 10 12:40 ..
-rwxr-xr-x 1 root root 0 Apr 10 12:40 .dockerenv
-rw-r--r-- 1 root root 12114 Nov 13 2020 anaconda-post.log
lrwxrwxrwx 1 root root 7 Nov 13 2020 bin -> usr/bin
drwxr-xr-x 5 root root 340 Apr 10 12:40 dev
drwxr-xr-x 1 root root 66 Apr 10 12:40 etc
drwxr-xr-x 2 root root 6 Apr 11 2018 home
lrwxrwxrwx 1 root root 7 Nov 13 2020 lib -> usr/lib
lrwxrwxrwx 1 root root 9 Nov 13 2020 lib64 -> usr/lib64
drwxr-xr-x 2 root root 6 Apr 11 2018 media
drwxr-xr-x 2 root root 6 Apr 11 2018 mnt
drwxr-xr-x 2 root root 6 Apr 11 2018 opt
dr-xr-xr-x 163 root root 0 Apr 10 12:40 proc
dr-xr-x--- 2 root root 114 Nov 13 2020 root
drwxr-xr-x 11 root root 148 Nov 13 2020 run
lrwxrwxrwx 1 root root 8 Nov 13 2020 sbin -> usr/sbin
drwxr-xr-x 2 root root 6 Apr 11 2018 srv
dr-xr-xr-x 13 root root 0 Apr 10 12:40 sys
drwxrwxrwt 7 root root 132 Nov 13 2020 tmp
drwxr-xr-x 13 root root 155 Nov 13 2020 usr
drwxr-xr-x 18 root root 238 Nov 13 2020 var
Dockerfile中很多命令都十分的相似,我们需要了解它们的区别,我们最好的学习就是对比它们然后测试效果!
实战:Tomcat镜像
1、准备镜像文件 tomcat压缩包,jdk的压缩包!
2、编写dockerfile文件,官方命名Dockerfile
,build会自动寻找这个文件,就不需要 -f 指定了!
[root@luyu tomcat]# cat dockerfile
FROM centos:7
MAINTAINER luyu<1371654894qq.com>
COPY readme.txt /usr/local/readme.txt
ADD jdk-8u11-linux-x64.tar.gz /usr/local/
ADD apache-tomcat-9.0.22.tar.gz /usr/local/
RUN yum -y install vim
ENV MYPATH /usr/local
WORKDIR $MYPATH
ENV JAVA_HOME /usr/local/jdk1.8.0_11
ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
ENV CATHLINA_HOME /usr/local/apache-tomcat-9.0.22
ENV CATHLINA_BASH /usr/local/apache-tomcat-9.0.22
ENV PATH $PATH:$JAVA_HOME/bin:$CATALINA_HOME/lib:$CATALINA_HOME/bin
EXPOSE 8080
CMD /usr/local/apache-tomcat-9.0.22/bin/startup.sh && tail -F /url/local/apache-tomcat-9.0.22/bin/local/catalina.out
3、构建镜像
# docker build -t diytomcat .
4、启动镜像
[root@luyu tomcat]# docker run -d -p 9090:8080 --name luyutomcat -v /root/tomcat/test:/usr/local/apache-tomcat-9.0.22/webapps/test -v /root/tomcat/tomcatlogs:/usr/local/apache-tomcat-9.0.22/logs diytomcat
5、测试访问
浏览器输入http://192.168.200.12:9090/
6、发布项目(由于做了卷挂载,我们直接在本地编写项目就可以发布了!)
添加web.xml文件
vim /root/tomcat/test/WEB-INF/web.xml
<?xml version="1.0" encoding="UTF-8"?>
<web-app version="2.4"
xmlns="http://java.sun.com/xml/ns/j2ee"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://java.sun.com/xml/ns/j2ee
http://java.sun.com/xml/ns/j2ee/web-app_2_4.xsd">
</web-app>
添加index.jsp文件
vim /root/tomcat/test/index.jsp
<%@ page language="java" contentType="text/html; charset=UTF-8"
pageEncoding="UTF-8"%>
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
<title>hello,luyu(runoob.com)</title>
</head>
<body>
Hello World!<br/>
<%
System.out.println("----my test web logs----");
%>
</body>
</html>
查看日志(cat /root/tomcat/catalina.out)
发现:项目部署成功,可以直接访问ok!
我们以后开发的步骤:需要掌握Dockerfile的编写!我们之后的一切都是使用docker镜像来发布运行!
发布自己的镜像
DockerHub
1、地址Docker Hub注册自己的账号!
2、确定这个账号可以登录
3、在我们服务器上提交自己的镜像
[root@luyu ~]# docker login --help
Usage: docker login [OPTIONS] [SERVER]
Log in to a registry.
If no server is specified, the default is defined by the daemon.
Options:
-p, --password string Password
--password-stdin Take the password from stdin
-u, --username string Username
[root@luyu ~]# docker login -u awhale0119
Password:
Login Succeeded
4、登录完毕后就可以提交镜像了,就是一步 docker push
# push自己的镜像到服务器上!
[root@luyu ~]# docker push diytomcat
Using default tag: latest
The push refers to repository [docker.io/library/diytomcat]
5f70bf18a086: Preparing
a6f980d3b0b4: Preparing
0100e4f9cb54: Preparing
43a1c1b3842e: Preparing
34c79d5f5de7: Preparing
174f56854903: Waiting
denied: requested access to the resource is denied # 拒绝
# push镜像的问题?
[root@luyu ~]# docker push luyu/diytomcat:latest
The push refers to repository [docker.io/luyu/diytomcat]
An image does not exist locally with the tag: luyu/diytomcat
# 解决,修改标签
[root@luyu ~]# docker tag luyu/diytomcat:1.0 awhale0119/diytomcat:1.0
# docker push上去即可!自己发布的进行尽量带上版本号
[root@luyu ~]# docker push awhale0119/diytomcat:1.0
The push refers to repository [docker.io/awhale0119/diytomcat]
5f70bf18a086: Pushed
a6f980d3b0b4: Pushed
0100e4f9cb54: Pushed
43a1c1b3842e: Pushed
34c79d5f5de7: Pushed
174f56854903: Pushed
1.0: digest: sha256:a472dd3fe05150ace8a765ec9c310bcfd7194faf7a28f167d3a20ef1eb1ab2ab size: 1579
# 提交的时候也是按照镜像的层级来进行
阿里云镜像服务上
1、登录阿里云
2、找到容器镜像服务
3、创建命名空间
4、创建镜像仓库
5、浏览阿里云
6、上传镜像
小结
Docker网络
理解Docker0
测试
三个网络
# 问题:docker 是如何处理容器网络访问的?
# 下载ip addr命令
root@351aa21820a6:/usr/local/tomcat# apt update && apt install -y iproute2
[root@luyu ~]# docker run -d -P --name tomcat01 tomcat
# 查看容器的内部网络地址 ip addr ,发现容器启动的时候会得到一个eth0@if9 ip地址,docker分配的!
[root@luyu ~]# docker exec -it tomcat02 ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
8: eth0@if9: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 02:42:ac:11:00:03 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 172.17.0.3/16 brd 172.17.255.255 scope global eth0
valid_lft forever preferred_lft forever
# 思考。linux能不能ping通容器内部!
[root@luyu ~]# ping 172.17.0.3 -c4
PING 172.17.0.3 (172.17.0.3) 56(84) bytes of data.
64 bytes from 172.17.0.3: icmp_seq=1 ttl=64 time=0.040 ms
64 bytes from 172.17.0.3: icmp_seq=2 ttl=64 time=0.054 ms
64 bytes from 172.17.0.3: icmp_seq=3 ttl=64 time=0.055 ms
64 bytes from 172.17.0.3: icmp_seq=4 ttl=64 time=0.094 ms
--- 172.17.0.3 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 2999ms
rtt min/avg/max/mdev = 0.040/0.060/0.094/0.022 ms
# linux可以ping通docker容器内部
原理
1、我们每启动一个docker容器,docker就会给docker容器分配一个ip,我们只要安装了docker,就会有一个网卡 docker0 桥接模式,使用的技术是evth-pair技术!
再次测试ip addr
2、再启动一个容器测试,发现又多了一对网卡~!
# 我们发现这个容器带来网卡,都是一对对的
# evth-pair 就是一对的虚拟设备接口,他们都是成对出现的,一段连着协议,一段彼此相连
# 正因为有这个特性,evth-pari 充当一个桥梁,连接各种虚拟网络设备的
# OpenStack,Docker容器之间的连接,OVS的连接,都是使用evth-pair技术
3、测试一下tomcat01和tomcat02是否可以ping通!
[root@luyu ~]# docker exec -it tomcat02 ping 172.17.0.4
# 结论:容器和容器之间是可以互相ping通的!
绘制一个网络模型图:
结论:tomcat01和tomcat02是公用的一个路由器,docker0.
所有的容器不指定网络的情况下,都是docker0 路由的,docker会给我们的容器分配一个默认的可用IP
小结
Docker使用的是Linux的桥接,宿主机中是一个docker容器的网桥docker0
Docker中的所有的网络接口都是虚拟的。虚拟的转发效率高!(内网传递文件!)
只要容器删除,对应网桥一对就没了!
--link
思考一个场景,我们编写了一个微服务,database url=ip:,项目不重启,数据库ip换掉了,我们希望可以处理这个问题,可以名字来进行访问容器?
[root@luyu ~]# docker exec -it tomcat01 ping tomcat02
ping: tomcat02: Name or service not known
# 如何可以解决呢?
# 通过--link即可以解决网络连通问题
[root@luyu ~]# docker run -d -P --name tomcat03 --link tomcat01 tomcat
b196b70659d1dd004052b32da6bb1c714662e16fc4775bfba2ae5ce680a20720
[root@luyu ~]# docker exec -it tomcat03 ping tomcat01
PING tomcat01 (172.17.0.2) 56(84) bytes of data.
64 bytes from tomcat01 (172.17.0.2): icmp_seq=1 ttl=64 time=0.117 ms
64 bytes from tomcat01 (172.17.0.2): icmp_seq=2 ttl=64 time=0.086 ms
64 bytes from tomcat01 (172.17.0.2): icmp_seq=3 ttl=64 time=0.073 ms
# 反向可以ping通吗?
[root@luyu ~]# docker exec -it tomcat01 ping tomcat03
ping: tomcat03: Name or service not known
探究:inspect!
其实这个tomcat03就是再本地配置了tomcat02的配置
# 查看 hosts 配置,在这里原理发现!
[root@luyu ~]# docker exec -it tomcat03 cat /etc/hosts
127.0.0.1 localhost
::1 localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
172.17.0.2 tomcat01 055e1718c033
172.17.0.4 b196b70659d1
本质探究:--link就是我们在hosts配置中增加了一个 172.17.0.2 tomcat01 055e1718c033
我们现在玩Docker已经不建议使用--link了!
自定义网络!不适用docker0!
docker0问题:它不支持容器名连接访问!
自定义网络
查看所有的docker网络
网络模式
bridge:桥接 docker(默认,自己创建也使用dridge模式)
none:不配置网络
host:和宿主机共享网络(主机模式)
container:容器网络连通!(用的少,局限很大)
测试
# 我们直接启动的命令 --net bridge,而这个就是我们的docker0
docker run -d -P --name tomcat01 tomcat
docker run -d -P --name tomcat01 --net bridge tomcat
# docker0特点:默认,域名不能访问, --link可以打通连接!
# 我们可以自定义一个网络!
# --driver bridge 桥接模式
# --subnet 10.10.0.0/16 子网
# --gateway 10.10.0.1 网关
[root@luyu ~]# docker network create --driver bridge --subnet 10.10.0.0/16 --gateway 10.10.0.1 mynet
e8c8fc120b615f8d3f68302d81ce026ee6397d415701915966ad73a3f9a7f65f
[root@luyu ~]# docker network ls
NETWORK ID NAME DRIVER SCOPE
81ffce6360f0 bridge bridge local
b70fb35fc6a0 host host local
e8c8fc120b61 mynet bridge local
35756b7b02d6 none null local
我们自己的网络就创建好了!
[root@luyu ~]# docker run -d -P --name tomcat-net01 --net mynet tomcat:8.5
50496686c95235118db1fd821ed7db7307212612a4207da15c5d80498b074717
[root@luyu ~]# docker run -d -P --name tomcat-net02 --net mynet tomcat:8.5
f869326fa6c6694ede59ab02dd454170dc7c409dddcc2cdb95d0666d627c3aba
[root@luyu ~]# docker network inspect mynet
[
{
"Name": "mynet",
"Id": "e8c8fc120b615f8d3f68302d81ce026ee6397d415701915966ad73a3f9a7f65f",
"Created": "2023-04-16T09:30:12.524760943+08:00",
"Scope": "local",
"Driver": "bridge",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "10.10.0.0/16",
"Gateway": "10.10.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {
"50496686c95235118db1fd821ed7db7307212612a4207da15c5d80498b074717": {
"Name": "tomcat-net01",
"EndpointID": "777473233f64d61961bd1f56edf3f2702f7d330fae30e474276e48184e7b7d80",
"MacAddress": "02:42:0a:0a:00:02",
"IPv4Address": "10.10.0.2/16",
"IPv6Address": ""
},
"f869326fa6c6694ede59ab02dd454170dc7c409dddcc2cdb95d0666d627c3aba": {
"Name": "tomcat-net02",
"EndpointID": "fc83b5737e33a3d9f6a037157e811e93552f8364abd79c3feafc649a652d15f6",
"MacAddress": "02:42:0a:0a:00:03",
"IPv4Address": "10.10.0.3/16",
"IPv6Address": ""
}
},
"Options": {},
"Labels": {}
}
]
# 再次测试ping连接
[root@luyu ~]# docker exec -it tomcat-net01 ping 10.10.0.3
PING 10.10.0.3 (10.10.0.3) 56(84) bytes of data.
64 bytes from 10.10.0.3: icmp_seq=1 ttl=64 time=0.072 ms
64 bytes from 10.10.0.3: icmp_seq=2 ttl=64 time=0.072 ms
64 bytes from 10.10.0.3: icmp_seq=3 ttl=64 time=0.066 ms
64 bytes from 10.10.0.3: icmp_seq=4 ttl=64 time=0.069 ms
64 bytes from 10.10.0.3: icmp_seq=5 ttl=64 time=0.063 ms
64 bytes from 10.10.0.3: icmp_seq=6 ttl=64 time=0.068 ms
^C
--- 10.10.0.3 ping statistics ---
6 packets transmitted, 6 received, 0% packet loss, time 5000ms
rtt min/avg/max/mdev = 0.063/0.068/0.072/0.003 ms
# 现在不使用--link也可以ping名字了!
[root@luyu ~]# docker exec -it tomcat-net01 ping tomcat-net02
PING tomcat-net02 (10.10.0.3) 56(84) bytes of data.
64 bytes from tomcat-net02.mynet (10.10.0.3): icmp_seq=1 ttl=64 time=0.054 ms
64 bytes from tomcat-net02.mynet (10.10.0.3): icmp_seq=2 ttl=64 time=0.069 ms
64 bytes from tomcat-net02.mynet (10.10.0.3): icmp_seq=3 ttl=64 time=0.068 ms
64 bytes from tomcat-net02.mynet (10.10.0.3): icmp_seq=4 ttl=64 time=0.068 ms
^C
--- tomcat-net02 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3001ms
rtt min/avg/max/mdev = 0.054/0.064/0.069/0.006 ms
我们自定义的网络docker都已经帮我们维护好了对应的关系,推荐我们平时这样使用网络!
好处:
redis - 不同的集群使用不同的网络,保证集群是安全和健康的
mysql - 不同的集群使用不同的网络,保证集群是安全和健康的
网络连通
# 测试打通 tomcat01 - mynet
[root@luyu ~]# docker network connect mynet tomcat01
# 连通之后就是将 tomcat01 放到了 mynet 网络下?
# 一个容器两个ip地址!
# 阿里云服务,公网ip 私网ip
# 01 连通ok
[root@luyu ~]# docker exec -it tomcat01 ping tomcat-net01
PING tomcat-net01 (10.10.0.2) 56(84) bytes of data.
64 bytes from tomcat-net01.mynet (10.10.0.2): icmp_seq=1 ttl=64 time=0.071 ms
64 bytes from tomcat-net01.mynet (10.10.0.2): icmp_seq=2 ttl=64 time=0.064 ms
64 bytes from tomcat-net01.mynet (10.10.0.2): icmp_seq=3 ttl=64 time=0.066 ms
64 bytes from tomcat-net01.mynet (10.10.0.2): icmp_seq=4 ttl=64 time=0.078 ms
^C
--- tomcat-net01 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3001ms
rtt min/avg/max/mdev = 0.064/0.069/0.078/0.005 ms
# 02 是依旧打不通的
[root@luyu ~]# docker exec -it tomcat02 ping tomcat-net01
ping: tomcat-net01: Name or service not known
结论:假设要跨网络操作别人,就需要使用docker network connect 连通!。。。。
实战:部署Redis集群
shell脚本
# 创建网卡
docker network create redis --subnet 172.38.0.0/16
# 通过脚本创建六个redis配置
for port in $(seq 1 6); \
do \
mkdir -p /mydata/redis/node-${port}/conf
touch /mydata/redis/node-${port}/conf/redis.conf
cat << EOF
mydata/redis/node-${port}/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.38.0.1${port}
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
EOF
done
docker run -p 637${port}:6379 -p 1637${port}:16379 --name redis-${port} \
-v /mydata/redis/node-${port}/data:/data \
-v /mydata/redis/node-${port}/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.1${port} redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6371:6379 -p 16371:16379 --name redis-1 \
-v /mydata/redis/node-1/data:/data \
-v /mydata/redis/node-1/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.11 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6372:6379 -p 16372:16379 --name redis-2 \
-v /mydata/redis/node-2/data:/data \
-v /mydata/redis/node-2/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.12 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6373:6379 -p 16373:16379 --name redis-3 \
-v /mydata/redis/node-3/data:/data \
-v /mydata/redis/node-3/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.13 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6374:6379 -p 16374:16379 --name redis-4 \
-v /mydata/redis/node-4/data:/data \
-v /mydata/redis/node-4/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.14 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6375:6379 -p 16375:16379 --name redis-5 \
-v /mydata/redis/node-5/data:/data \
-v /mydata/redis/node-5/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.15 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
docker run -p 6376:6379 -p 16376:16379 --name redis-6 \
-v /mydata/redis/node-6/data:/data \
-v /mydata/redis/node-6/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.16 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
# 创建集群
/data # redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:63
79 --cluster-replicas 1
>>> Performing hash slots allocation on 6 nodes...
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 172.38.0.15:6379 to 172.38.0.11:6379
Adding replica 172.38.0.16:6379 to 172.38.0.12:6379
Adding replica 172.38.0.14:6379 to 172.38.0.13:6379
M: 73f918ca46eaabf77bfec7aac35919587a25bed0 172.38.0.11:6379
slots:[0-5460] (5461 slots) master
M: cde519c24b381344a4602b496314984e9c129def 172.38.0.12:6379
slots:[5461-10922] (5462 slots) master
M: b0bfcf93bbc78765ba4a241e617a26647a27ce2b 172.38.0.13:6379
slots:[10923-16383] (5461 slots) master
S: e4e4ad889fa161378c5707ee7121b7c107d757c6 172.38.0.14:6379
replicates b0bfcf93bbc78765ba4a241e617a26647a27ce2b
S: 19ee39fbad3b4bd70fcbab6799596a53d4f2fc9f 172.38.0.15:6379
replicates 73f918ca46eaabf77bfec7aac35919587a25bed0
S: ee8727fa2ffa900501ca275ae84c0fae01abb71b 172.38.0.16:6379
replicates cde519c24b381344a4602b496314984e9c129def
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join
...
>>> Performing Cluster Check (using node 172.38.0.11:6379)
M: 73f918ca46eaabf77bfec7aac35919587a25bed0 172.38.0.11:6379
slots:[0-5460] (5461 slots) master
1 additional replica(s)
M: cde519c24b381344a4602b496314984e9c129def 172.38.0.12:6379
slots:[5461-10922] (5462 slots) master
1 additional replica(s)
S: ee8727fa2ffa900501ca275ae84c0fae01abb71b 172.38.0.16:6379
slots: (0 slots) slave
replicates cde519c24b381344a4602b496314984e9c129def
M: b0bfcf93bbc78765ba4a241e617a26647a27ce2b 172.38.0.13:6379
slots:[10923-16383] (5461 slots) master
1 additional replica(s)
S: e4e4ad889fa161378c5707ee7121b7c107d757c6 172.38.0.14:6379
slots: (0 slots) slave
replicates b0bfcf93bbc78765ba4a241e617a26647a27ce2b
S: 19ee39fbad3b4bd70fcbab6799596a53d4f2fc9f 172.38.0.15:6379
slots: (0 slots) slave
replicates 73f918ca46eaabf77bfec7aac35919587a25bed0
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
docker搭建redis集群完成!
我们使用了docker之后,所有的技术都会慢慢的变得简单起来!
标签:容器,tomcat,--,镜像,docker,root From: https://www.cnblogs.com/luyu0119/p/17323982.html