首页 > 系统相关 >1.nginx快速使用(基于docker)

1.nginx快速使用(基于docker)

时间:2022-11-21 20:10:57浏览次数:51  
标签:基于 Nginx server nginx location conf docker

根据B站视频做的笔记,链接如下:https://www.bilibili.com/video/BV1W54y1z7GM?p=3
这篇博客是为了方便快速使用nginx的人上手入门,深入探究的笔记,以后再添加

文章目录

nginx介绍

引言

为什么要学习Nginx
问题1:客户端到底要将请求发送给哪台服务器,不太可能维护太多的服务器ip+端口。
问题2:如果所有客户端的请求都发送给了服务器1,那集群模式下的其他服务器就空闲了。
问题3:客户端发送的请求可能是申请动态资源的,也有申请静态资源的,动态资源tomcat处理起来给力,但是静态就不行了,需要分流。

服务器搭建集群后
1.nginx快速使用(基于docker)_其他
在搭建集群后,使用Nginx做反向代理
1.nginx快速使用(基于docker)_其他_02

Nginx介绍

Nginx是由俄罗斯人研发的,应对Rambler的网站并发,并且2004年发布的第一个版本。
1.nginx快速使用(基于docker)_html_03
Nginx的特点
1.稳定性极强,7*24小时不间断运行(就是一直运行)
2.Nginx提供了非常丰富的配置实例
3.占用内存小,并发能力强(随便配置一下就是5w+,而tomcat的默认线程池是150)
国内很多大厂都用了nginx,其中阿里巴巴还进行了二次封装,有了Tengine。

Nginx的安装

2.1 安装nginx

在docker和docker-compose的环境下安装nginx是非常开心的一件事。

#在/opt目录下创建docker_nginx目录
cd /opt
mkdir docker_nginx
#创建docker-compose.yml文件并编写下面的内容,保存退出
vim docker-compose.yml

yml文件内容:

version: '3.1'
services: 
  nginx:
    restart: always
    image: daocloud.io/library/nginx:latest
    container_name: nginx
    ports: 
      - 80:80

执行yml文件的启动命令:

执行docker-compose up -d

访问80端口,看到下图说明安装成功
1.nginx快速使用(基于docker)_其他_04

2.2 Nginx的配置文件

#查看当前nginx的配置需要进入docker容器中
docker exec -it 容器id bash
#进入容器后
cd /etc/nginx/
cat nginx.conf

nginx.conf文件内容如下:


user  nginx;
worker_processes  1;

error_log  /var/log/nginx/error.log warn;
pid        /var/run/nginx.pid;
# 以上同城为全局块
# worker_processes的数值越大,Nginx的并发能力就越强
# error_log代表Nginx错误日志存放的位置
# pid是Nginx运行的一个标识

events {
    worker_connections  1024;
}
# events块
# worker_connections的数值越大,Nginx的并发能力就越强

http {
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log  /var/log/nginx/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    keepalive_timeout  65;

    #gzip  on;

    include /etc/nginx/conf.d/*.conf;
}

# http块
# include代表引入一个外部文件
# include       /etc/nginx/mime.types;	mime.types中存放着大量媒体类型
#include /etc/nginx/conf.d/*.conf;	引入了conf.d下以.conf为结尾的配置文件

conf.d目录下只有一个default.conf文件,这个文件夹的内容被包含到http块中了,内容如下:

server {
    listen       80;
    server_name  localhost;

    #charset koi8-r;
    #access_log  /var/log/nginx/host.access.log  main;

    location / {
        root   /usr/share/nginx/html;
        index  index.html index.htm;
    }
	# location块
	# root:将接受到的请求根据/usr/share/nginx/html去查找静态资源
	# index:默认去上述的路径中找到index.html或index.htm

   
    error_page   500 502 503 504  /50x.html;
    location = /50x.html {
        root   /usr/share/nginx/html;
    }
	

 
}

# server块
# listen代表Nginx监听的端口号
# server_name代表Nginx接受请求的IP

2.3修改docker-compose文件

#退出容器
exit
#关闭容器
docker-compose down
 

修改docker-compose.yml文件如下

version: '3.1'
services: 
  nginx:
    restart: always
    image: daocloud.io/library/nginx:latest
    container_name: nginx
    ports: 
      - 80:80
    volumes:
      - /opt/docker_nginx/conf.d/:/etc/nginx/conf.d

注意,这里的数据卷是文件夹映射文件夹,直接配置就ok。
数据卷发生了改变,那么需要重新构建,然后启动。

#重新构建容器
docker-compose bulid
#重新启动容器
docker-compose up -d

这时我们再次访问80端口是访问不到的,因为我们映射了数据卷之后还没有编写server块中的内容

我们在宿主机的/opt/docker_nginx/conf.d下新建default.conf,并插入如下内容:

server {
    listen       80;
    server_name  localhost;

    location / {
        root   /usr/share/nginx/html;
        index  index.html index.htm;
    }
}

#重启nginx
docker-compose restart

这时我们再访问80端口,可以看到是访问成功的。做数据卷的映射,默认里面的东西(比如自带的配置文件)是不给你复制出来的,需要自己做,这个很重要,忘记容易出问题,比如主页打不开了。

Nginx的反向代理

3.1 正向代理和反向代理介绍

正向代理:
1.正向代理服务是由客户端设立的
2.客户端了解代理服务器和目标服务器都是谁
3.帮助咱们实现突破访问权限,提高访问的速度,对目标服务器隐藏客户端的ip地址

反向代理:
1.反向代理服务器是配置在服务端的
2.客户端不知道访问的到底是哪一台服务器
3.达到负载均衡,并且可以隐藏服务器真正的ip地址
1.nginx快速使用(基于docker)_其他_05

3.2基于Nginx实现反向代理

主要步骤如下:

  1. 准备一个目标服务器:启动tomcat服务器,里面搭载你的web程序
  2. 编写nginx的配置文件(/opt/docker_nginx/conf.d/default.conf),通过Nginx访问到tomcat服务器
    这里以tomcat为例,启动一个tomcat,作为测试目标服务器。
docker run -d -p 8080:8080 --name tomcat  daocloud.io/library/tomcat:8.5.15-jre8

编写conf文件(/opt/docker_nginx/conf.d/default.conf):

server {
    listen       80;
    server_name  localhost;

    location / {
        proxy_pass http://127.0.0.1:8080/;
    }
}

重启nginx,访问80端口,测试映射情况:

#重启nginx
docker-compose restart

这时我们访问80端口可以看到8080端口tomcat的默认首页。

3.3关于Nginx的location路径映射

# 1. = 精准匹配
location = / {
	#精准匹配,主机名后面不能带能和字符串
	#例如www.baidu.com不能是www.baidu.com/id=xxx
}
#2. 通用匹配
location /xxx {
	#匹配所有以/xxx开头的路径
	#例如127.0.0.1:8080/xxx	xxx可以为空,为空则和=匹配一样
}
#3. 正则匹配
location ~ /xxx {
	#匹配所有以/xxx开头的路径
}
#4. 匹配开头路径
location ^~ /xxx/xx {
	#匹配所有以/xxx/xx开头的路径
}
#5. 匹配结尾路径
location ~* \.(gif/jpg/png)$ {
	#匹配以.gif、.jpg或者.png结尾的路径
}

优先级关系总结: 精准匹配最大,通用全局匹配的的匹配类型最小。


(location = ) > (location /xxx/yyy/zzz) > (location ^~) > (location ~,~*) > (location /起始路径) > (location /)

测试一下

修改/opt/docker_nginx/conf.d/default.conf如下:

server {
    listen       80;
    server_name  localhost;

	location /index {
        proxy_pass http://127.0.0.1:8081/;	#tomcat首页
    }

	location ^~ /html/ {
        proxy_pass http://ncthz.top:8080/html/;	#前台首页,以html开头
    }

    location / {
        proxy_pass http://ncthz.top:8080/web/;	#后台首页 兜底
    }
}

配置完毕之后重启nginx

#重启nginx
docker-compose restart

测试不同的链接,跳转不同的结果。

Nginx负载均衡

Nginx为我们默认提供了三种负载均衡的策略:
1.轮询:
将客户端发起的请求,平均分配给每一台服务器
2.权重:
会将客户端的请求,根据服务器的权重值不同,分配不同的数量。至于为啥权重不同,理解为性能不同,处理能力不同,能者多劳。。
3.ip_hash:
基于发起请求的客户端的ip地址不同,他始终会将请求发送到指定的服务器上
就是说如果这个客户端的请求的ip地址不变,那么处理请求的服务器将一直是同一个

轮询实现

需要注意的事,upstream的名字尽量不要带下划线。

upstream 名字{
    server ip:端口;
    server ip:端口;
}
server {
    listen       80;
    server_name  localhost;

	location / {
        proxy_pass http://upstream的名字/;	
    }
}

权重实现

upstream my_server{
    server ip:8080 weight=10;
    server ip:8081 weight=2;
}
server {
    listen       80;
    server_name  localhost;

	location / {
        proxy_pass http://my_server/;	#tomcat首页
    }
}

ip_hash

upstream my_server{
	ip_hash;
    server ip:端口;
    server ip:端口;
}
server {
    listen       80;
    server_name  localhost;

	location / {
        proxy_pass http://my_server/;	#tomcat首页
    }
}

上述的修改全部发生在宿主机的/opt/docker_nginx/conf.d/default.conf文件中,需要注意的是:
1.upstream是独立于server块的模块
2.upstream块的名字尽量不要带下划线。
修改完之后,重启nginx,即可查看效果:

#重启nginx
docker-compose restart
nginx动静分离

Nginx的并发能力公式:
worker_processes * worker_connections / 4|2 = Nginx最终的并发能力
动态资源需要/4,静态资源需要/2
所以:Nginx通过动静分离来提升Nginx的并发能力,更快的给用户响应
为什么是4和2呢? 如下图,访问动态资源的,需要4个链接,访问静态的,可以nginx本身直接映射,就只有2个。
1.nginx快速使用(基于docker)_html_06
1.nginx快速使用(基于docker)_docker_07

动态资源

就是反向代理到tomcat的套路。

#配置如下
location / {
  proxy_pass 路径;
}

静态代理

先停掉docker里让compose管理的容器

#停掉nginx
docker-compose down

#修改docker-compose.yml添加静态资源数据卷
#不同版本的静态资源位置可能不同,可以在2.2中查看默认的位置(location块中root后的路径)

#修改完成后再启动nginx
docker-compose up -d
version: '3.1'
services: 
  nginx:
    restart: always
    image: daocloud.io/library/nginx:latest
    container_name: nginx
    ports: 
      - 80:80
    volumes:
      - /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
      - /opt/docker_nginx/html/:/usr/share/nginx/html

映射方案分为静态html界面和img文件,conf文件截图如下:

1.nginx快速使用(基于docker)_docker_08
1.nginx快速使用(基于docker)_nginx_09
需要注意的是,首先语法:

#配置如下
location / {
    root 静态资源路径;
    index 默认访问路径下的什么资源;
    autoindex on;#代表展示静态资源的全部内容,以列表的形式展开,主要应对img等文件
}

然后是拼接,以上图中的代理img静态资源为例,/img的url会被拦截,转发到/data/img 文件夹下,主要这个img映射会加到root目录里。

配置好之后,重启nginx,访问图片和html即可测试

#重启nginx
docker-compose restart
nginx集群

1.nginx快速使用(基于docker)_其他_10
所有的请求发给nginx,这种关键的关节性的节点如果故障了,整个系统就瘫痪了,这种就叫做单点故障。可以使用集群的策略去解决。
nginx做集群就得有钱前端的节点去路由请求到不同ip的nginx,就有了下面2种技术:
准备keepalived,监听nginx的健康情况
准备haproxy,提供一个虚拟的路径,统一的去接收用户的请求
1.nginx快速使用(基于docker)_其他_11

6.2搭建

#先准备好以下文件放入/opt/docker_nginx_cluster目录中
#然后启动容器	注意确保80、8081和8082端口未被占用(或者修改docker-compose.yml中的端口)
docker-compose up -d

#然后我们访问8081端口可以看到master,访问8082端口可以看到slave
#因为我们设置了81端口的master优先级未200比82端口的slave优先级100高,所以我们访问80端口看到的是master
#现在我们模仿8081端口的nginx宕机了
#docker stop 8081端口nginx容器的ID
#这时我们再去访问80端口看到的就是slave了

Dockerfile文件:

FROM nginx:1.13.5-alpine

RUN apk update && apk upgrade

RUN apk add --no-cache bash curl ipvsadm iproute2 openrc keepalived

COPY entrypoint.sh /entrypoint.sh

RUN chmod +x /entrypoint.sh

CMD ["/entrypoint.sh"]

entrypoint.sh

#!/bin/sh

#/usr/sbin/keepalvined -n -l -D -f /etc/keepalived/keepalived.conf --dont-fork --log-console &
/usr/sbin/keepalvined -D -f /etc/keepalived/keepalived.conf


nginx -g "daemon off;"

docker-compose.yml

version: "3.1"
services:
  nginx_master:
    build:
      context: ./
      dockerfile: ./Dockerfile
    ports:
      -8081:80
    volumes:
      - ./index-master.html:/usr/share/nnginx/html/index.html
      - ./favicon.ico:/usr/share/nnginx/html/favicon.ico
      - ./keepalived-master.conf:/etv/keepalived/keepalived.conf
    networks:
      static-network:
        ipv4_address:172.20.128.2
    cap_add:
      - NET_ADMIN
  nginx_slave:
    build:
      context: ./
      dockerfile: ./Dockerfile
    ports:
      -8082:80
    volumes:
      - ./index-slave.html:/usr/share/nnginx/html/index.html
      - ./favicon.ico:/usr/share/nnginx/html/favicon.ico
      - ./keepalived-slave.conf:/etv/keepalived/keepalived.conf
    networks:
      static-network:
        ipv4_address:172.20.128.3
    cap_add:
      - NET_ADMIN
  proxy:
    image:  haproxy:1.7-apline
    ports:
      - 80:6301
    volumes:
      - ./happroxy.cfg:/usr/local/etc/haproxy/haproxy.cfg
    networks:
      - static-network
networks:
  static-network:
    ipam:
      congig:
        - subnet: 172.20.0.0/16

keepalived-master.conf

vrrp_script chk_nginx {
    script "pidof nginx"
    interval 2
}

vrrp_instance VI_1 {
    state MASTER
    interface etch0	#容器内部的网卡名称
    virtual_router_id 33
    priority 200	#优先级
    advert_int 1
    
    autheentication {
    	auth_type PASS
    	auth_pass letmein
	}

	virtual_ipaddress {
        172.20.128.50	#虚拟路径
    }

	track_script {
        chk_nginx
    }
}

keepalived-slave.conf

vrrp_script chk_nginx {
    script "pidof nginx"
    interval 2
}

vrrp_instance VI_1 {
    state BACKUP
    interface etch0	#容器内部的网卡名称
    virtual_router_id 33
    priority 100	#优先级
    advert_int 1
    
    autheentication {
    	auth_type PASS
    	auth_pass letmein
	}

	virtual_ipaddress {
        172.20.128.50	#虚拟路径
    }

	track_script {
        chk_nginx
    }
}

haproxy.cfg

global
	log 127.0.0.1 local0
	maxconn 4096
	daemon
	nbproc 4
	
defaults
	log 127.0.0.1 local3
	mode http
	option dontlognull
	option redispatch
	retries 2
	maxconn 2000
	balance roundrobin
	timeout connect 5000ms
	timeout client 5000ms
	timeout server 5000ms
	
frontend main
	bind *:6301
	default_backend webserver
	
backend webserveer
	server nginx_master 127.20.127.50:80 check inter 2000 rise 2 fall 5

index-master.html

<h1>master!</h1>

index-slave.html

<h1>slave!</h1>

标签:基于,Nginx,server,nginx,location,conf,docker
From: https://blog.51cto.com/u_11301546/5875151

相关文章

  • Nginx的使用讲解
    Author:Ericversion:9.0.1 文章目录一、引言1.1代理问题1.2负载均衡问题1.3资源优化1.4Nginx处理二、Nginx概述三、Nginx的安装3.1安装Ngin......
  • 云原生学习笔记-1-docker
    一、基础环境说明1、操作系统:Centos7.6;1master;2node2、docker版本:docker-ce19.03.8-3二、docker安装1、使用阿里镜像仓库,mirror.aliyun.com#step1:安装必要的一些......
  • docker安装python
    dockerfileFROMpython:3.6.8WORKDIR/homeRUNapt-getupdate\&&apt-getinstall-y--no-install-recommendscron\&&rm-rf/var/lib/apt/lists/*\&......
  • 将现有vue项目基于electron打包成桌面应用程序 如何隐藏electron窗体的菜单栏
    一、前言项目本来打算采用B/S架构去做的,浏览器网址方式打开还是让用户不方便;二、使用electron集成桌面应用本身项目是使用vue-cli开发的,在使用electron之前,需要......
  • Docker部署flink备忘
    欢迎访问我的GitHub这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos本文目的是给自己备忘的,在后面的工作和学习中若想快速搭建Flink......
  • docker资源配额
    百度网盘链接:https://pan.baidu.com/s/15t_TSH5RRpCFXV-93JHpNw?pwd=8od3 提取码:8od37docker资源配额7.1docker容器控制cpuDocker通过cgroup来控制容器使用的资源限......
  • docker私有镜像仓库harbor
    百度网盘链接:https://pan.baidu.com/s/15t_TSH5RRpCFXV-93JHpNw?pwd=8od3 提取码:8od38docker私有镜像仓库harborHarbor介绍Docker容器应用的开发和运行离不开可靠的......
  • docker运行jar包
    1.将jar包传到服务器2.在jar包的同路径下新建一个dockerfile(内容如下)FROMjava:8#Defaultputyourapplicationpackageinto/home/admin/app/ENVAPP_BASE/home......
  • 基于dockerfile构建镜像
    百度网盘链接:https://pan.baidu.com/s/15t_TSH5RRpCFXV-93JHpNw?pwd=8od3 提取码:8od34基于dockerfile构建镜像4.1dockerfile语法详解Dockerfile是一个用来构建镜像......
  • docker数据持久化
    百度网盘链接:https://pan.baidu.com/s/15t_TSH5RRpCFXV-93JHpNw?pwd=8od3 提取码:8od35docker数据持久化5.1docker容器的数据管理5.1.1Docker容器的数据卷数据卷是......