Linux下nginx服务器安装及负载均衡怎么配置
时间:2023-05-14 06:06
一、搭建测试环境 这里的测试环境为通过virtualbox 安装的两台lubuntu 19.04 虚拟机,linux 系统安装方法不作赘述。 为了保证两台 linux 虚拟机之间的相互访问,虚拟机的网络配置除了默认的 nat 方式外,还使用了 virtualbox 软件提供的内部网络(internal) 联网方式。 此外,还需要将两台虚拟机中与“内部网络”相关联的网卡,绑定上 同一网段 的静态 ip 地址,则两台主机形成局域网络,相互之间可以直接访问。 网络配置 打开 virtualbox 软件,分别进入两台虚拟机的设置界面,为其添加 连接方式为内部网络 的网络连接,截图如下(两台虚拟机作同样的配置): 内部网络 登录进虚拟机系统,使用 ip addr 命令查看当前的网络连接信息: 可以看到,此时的 enp0s8 网卡还没有绑定 ipv4 地址,需要为其手动指定静态 ip。 需要 注意 的是,从 ubuntu 17.10 版本开始,一个新的名为 netplan 的工具被引入,原来的网络配置文件 所以为网卡设置静态 ip 时需要修改 /etc/netplan/01-network-manager-all.yaml 配置文件,示例如下: 由于两台主机处于同一子网,网关和 dns 服务器未配置的情况下仍可以互相访问。对应的配置项暂时先注释掉(后续可以尝试自行搭建 dns 服务器)。 编辑完成后运行 登录进另一台虚拟机中,执行同样的操作(注意配置文件中的 addresses 项改为 [192.168.1.102/24] )。两台虚拟机的网络即配置完成。 此时有 linux 虚拟机 server1,ip 地址为 192.168.1.101;linux 虚拟机 server2,ip 地址为 192.168.1.102。两台主机可相互访问。测试如下: 二、安装 nginx 服务器 nginx 的安装方式主要有两种: 预编译的二进制程序。这是最简单和最快速的安装方式,各主流操作系统都可以通过包管理器(如 ubuntu 的 apt-get)安装。此种方式会安装几乎所有的 官方 模块或插件。 从源代码编译安装。这种方式相对于前者更加灵活,可以自行选择需要安装的模块或第三方插件。 本示例并没有特殊的需求,所以直接选择第一种安装方式。命令如下: 安装成功后,通过 通过 三、负载均衡配置 负载均衡(load-balancing)即按照一定的规则将负载分摊到多个操作单元上执行,从而提高服务的可用性和响应速度。 简单的示例图如下: load-balancing 如某网站应用部署在多台主机构成的服务器集群上,负载均衡服务器位于终端用户和服务器集群之间,负责接收终端用户的访问流量,并根据一定的规则将用户访问 分发 给后端的服务器主机,从而提高在高并发状态下的响应速度。 负载均衡服务器 nginx 可以通过 upstream 选项配置负载均衡。这里使用虚拟机 server1 作为负载均衡服务器。 修改 serve1 上默认站点的配置文件( sudo vim /etc/nginx/sites-available/default ),改为如下内容: 基于测试的目的,当前只有两台虚拟机。server1(192.168.1.101)已经作为负载均衡服务器,所以使用 server2(192.168.1.102)作为应用服务器。 这里借助 nginx 的虚拟主机功能,分别将 192.168.1.102 和 192.168.1.102:8000 “模拟”为两台不同的应用服务器。 应用服务器 修改 server2 上默认站点的配置文件( sudo vim /etc/nginx/sites-available/default ),改为如下内容: 在 /var/www/html 目录下创建 index.html 文件,作为 default 站点的 index 页面,内容如下: 运行 配置“另一台主机”上的站点,在 server2 上创建 注意监听端口和 index 页面的配置变化。在 /var/www/html 目录下创建 index2.html 文件,作为 server2 站点的 index 页面,内容如下: ps:为了测试目的,default 站点和 server2 站点配置在同一个主机 server2 上,且页面稍有不同。实际环境中通常将这两个站点配置在不同的主机上,且内容一致。 运行 重启 nginx 服务,此时访问 即可获取刚刚创建的 index2.html 页面: 负载均衡测试 回到负载均衡服务器即虚拟机 server1 上,其配置文件中设置的 反向代理 url 为 。 由于未曾配置域名解析服务,无法将 urlhttp://backend 定位到正确的位置。 可以修改 server1 上的 /etc/hosts 文件,添加如下一条记录: 127.0.0.1 backend 即可将该域名解析到本地 ip ,完成对负载均衡服务器的访问。 重启 nginx 服务,在 server1 上访问 ,效果如下: 从输出中可以看出,server1 对负载均衡服务器 的访问,完成了对应用服务器 server2 上两个 web 站点的 轮询 ,起到负载均衡的作用。 四、负载均衡方法 nginx 开源版本提供四种负载均衡的实现方式,简单介绍如下。 1. round robin 用户请求 均匀 地分配给后端服务器集群(可以通过 weight 选项设置轮询的 权重 ),这是 nginx 默认使用的负载均衡方式: 2. least connections 用户请求会优先转发给集群中当前活跃连接数最少的服务器。同样支持 weight 选项。 3. ip hash 用户请求会根据 客户端 ip 地址 进行转发。即该方式意图保证某个特定的客户端最终会访问 同一个 服务器主机。 4. generic hash 用户请求会根据一个 自定义键值 确定最终转发的目的地,该键值可以是字符串、变量或者组合(如源 ip 和端口号)。 权重 参考下面的示例配置: 默认权重(weight)为 1 。 backup 服务器 只有在所有其他服务器全部宕机的情况下才会接收请求。 如上面的示例,每 6 个请求会有 5 个转发给 以上就是Linux下nginx服务器安装及负载均衡怎么配置的详细内容,更多请关注Gxl网其它相关文章!$ ip addr...2: enp0s3: <broadcast,multicast,up,lower_up> mtu 1500 qdisc fq_codel state up group default qlen 1000 link/ether 08:00:27:38:65:a8 brd ff:ff:ff:ff:ff:ff inet 10.0.2.15/24 brd 10.0.2.255 scope global dynamic noprefixroute enp0s3 valid_lft 86390sec preferred_lft 86390sec inet6 fe80::9a49:54d3:2ea6:1b50/64 scope link noprefixroute valid_lft forever preferred_lft forever3: enp0s8: <broadcast,multicast,up,lower_up> mtu 1500 qdisc fq_codel state up group default qlen 1000 link/ether 08:00:27:0d:0b:de brd ff:ff:ff:ff:ff:ff inet6 fe80::2329:85bd:937e:c484/64 scope link noprefixroute valid_lft forever preferred_lft forever
/etc/network/interfaces
不再生效。network: version: 2 renderer: networkmanager ethernets: enp0s8: dhcp4: no dhcp6: no addresses: [192.168.1.101/24]# gateway4: 192.168.1.101# nameservers:# addresses: [192.168.1.101, 8.8.8.8]
sudo netplan apply
命令,前面配置的静态 ip 即可生效。$ ip addr...3: enp0s8: <broadcast,multicast,up,lower_up> mtu 1500 qdisc fq_codel state up group default qlen 1000 link/ether 08:00:27:0d:0b:de brd ff:ff:ff:ff:ff:ff inet 192.168.1.101/24 brd 192.168.1.255 scope global noprefixroute enp0s8 valid_lft forever preferred_lft forever inet6 fe80::a00:27ff:fe0d:bde/64 scope link valid_lft forever preferred_lft forever
starky@server1:~$ ping 192.168.1.102 -c 2ping 192.168.1.102 (192.168.1.102) 56(84) bytes of data.64 bytes from 192.168.1.102: icmp_seq=1 ttl=64 time=0.951 ms64 bytes from 192.168.1.102: icmp_seq=2 ttl=64 time=0.330 ms--- 192.168.1.102 ping statistics ---2 packets transmitted, 2 received, 0% packet loss, time 2msrtt min/avg/max/mdev = 0.330/0.640/0.951/0.311 msskitar@server2:~$ ping 192.168.1.101 -c 2ping 192.168.1.101 (192.168.1.101) 56(84) bytes of data.64 bytes from 192.168.1.101: icmp_seq=1 ttl=64 time=0.223 ms64 bytes from 192.168.1.101: icmp_seq=2 ttl=64 time=0.249 ms--- 192.168.1.101 ping statistics ---2 packets transmitted, 2 received, 0% packet loss, time 29msrtt min/avg/max/mdev = 0.223/0.236/0.249/0.013 ms
$ sudo apt-get update$ sudo apt-get install nginx
systemctl status nginx
命令查看 nginx 服务的运行状态:$ systemctl status nginx● nginx.service - a high performance web server and a reverse proxy server loaded: loaded (/lib/systemd/system/nginx.service; enabled; vendor preset: en active: active (running) since tue 2019-07-02 01:22:07 cst; 26s ago docs: man:nginx(8) main pid: 3748 (nginx) tasks: 2 (limit: 1092) memory: 4.9m cgroup: /system.slice/nginx.service ├─3748 nginx: master process /usr/sbin/nginx -g daemon on; master_pro └─3749 nginx: worker process
curl -i 127.0.0.1
命令验证 web 服务器是否可以正常访问:$ curl -i 127.0.0.1http/1.1 200 okserver: nginx/1.15.9 (ubuntu)...
upstream backend { server 192.168.1.102:8000; server 192.168.1.102;}server { listen 80; location / { proxy_pass http://backend; }}
server { listen 80; root /var/www/html; index index.html index.htm index.nginx-debian.html; server_name 192.168.1.102; location / { try_files $uri $uri/ =404; }}
<html> <head> <title>index page from server1</title> </head> <body> <h1>this is server1, address 192.168.1.102.</h1> </body></html>
sudo systemctl restart nginx
命令重启 nginx 服务,此时访问 即可获取刚刚创建的 index.html 页面:$ curl 192.168.1.102<html> <head> <title>index page from server1</title> </head> <body> <h1>this is server1, address 192.168.1.102.</h1> </body></html>
/etc/nginx/sites-available/server2
配置文件,内容如下:server { listen 8000; root /var/www/html; index index2.html index.htm index.nginx-debian.html; server_name 192.168.1.102; location / { try_files $uri $uri/ =404; }}
<html> <head> <title>index page from server2</title> </head> <body> <h1>this is server2, address 192.168.1.102:8000.</h1> </body></html>
sudo ln -s /etc/nginx/sites-available/server2 /etc/nginx/sites-enabled/
命令启用刚刚创建的 server2 站点。$ curl 192.168.1.102:8000<html> <head> <title>index page from server2</title> </head> <body> <h1>this is server2, address 192.168.1.102:8000.</h1> </body></html>
$ curl http://backend<html> <head> <title>index page from server1</title> </head> <body> <h1>this is server1, address 192.168.1.102.</h1> </body></html>$ curl http://backend<html> <head> <title>index page from server2</title> </head> <body> <h1>this is server2, address 192.168.1.102:8000.</h1> </body></html>$ curl http://backend<html> <head> <title>index page from server1</title> </head> <body> <h1>this is server1, address 192.168.1.102.</h1> </body></html>$ curl http://backend<html> <head> <title>index page from server2</title> </head> <body> <h1>this is server2, address 192.168.1.102:8000.</h1> </body></html>
upstream backend { server backend1.example.com weight=5; server backend2.example.com;}
upstream backend { least_conn; server backend1.example.com; server backend2.example.com;}
upstream backend { ip_hash; server backend1.example.com; server backend2.example.com;}
upstream backend { hash $request_uri consistent; server backend1.example.com; server backend2.example.com;}
upstream backend { server backend1.example.com weight=5; server backend2.example.com; server 192.0.0.1 backup;}
backend1.example.com
,1 个转发给 backend2.example.com。只有当 backend1 和 backend2 全部宕机时,192.0.0.1 才会接收并处理请求。