解决方案

nginx七大核心应用场景详解 解决生产中的实际问题 二次开发扩展

seo靠我 2023-09-22 18:22:15

nginx七大核心应用场景详解 & 解决生产中的实际问题

1、nginx的安装与简单配置1.1、环境准备1.2、nginx基本操作指令:1.3、安装成系统服务1.4、conf 配置文件说明2、虚拟主机2SEO靠我.1、nginx多主机配置2.2、二级域名与短网址解析3、基于反向代理的负载均衡3.1、跳转到外部网站配置3.2、跳转到局域网配置3.3、负载均衡配置3.4、负载均衡策略3.4.1、轮询——weighSEO靠我t(权重)3.4.2、其他负载均衡策略3.5、动静分离3.5.1、动静分离原理3.5.2、tomcat静态资源部署3.5.3、nginx简单实现动静分离,3.5.4、location的正则匹配3.6、SEO靠我UrlRewrite3.7、对资源机进行拦截3.8、防盗链配置4、HA高可用配置及解决方案4.1、HA高可用原理(High Availability)4.2、安装keepalived4.3、KeepaSEO靠我lived的选举机制和切换机制5、HTTP协议配置5.1、不安全的HTTP协议5.2、CA认证5.3、证书的安装5.3.1、搭建一个网站5.3.1.1、购买云服务器5.3.1.2、购买域名5.3.1.SEO靠我3、域名解析5.3.2、安装证书到nginx6、nginx优化——扩容6.1、单机垂直扩容6.2、水平扩展:集群化6.2.1、ipHash维持会话6.2.2、$request_uri维持会话6.2.3SEO靠我、$cookie_jsessionid维持会话6.2.4、使用sticky模块完成对Nginx的负载均衡6.3、Keepalive6.3.1、在浏览器中查看是否启用keepalive6.3.2、抓包—SEO靠我—charles6.3.3、keepalive配置6.3.4、apache-benchmark压力测试6.3.5、nginx反向代理tomcat性能提升6.4、Nginx反向代理核心流程6.4.1、pSEO靠我roxy_pass工作流程6.4.2、获取真实的IP6.5、服务端优化6.5.1、Gzip压缩6.5.2、gzip相关配置(Gzip动态压缩)6.5.3、Gzip静态压缩6.5.4、第三方zip模块BSEO靠我rotli与模块化加载6.5.5、合并请求6.6、资源静态化6.6.1、ngx_http_ssi_module模块解决资源静态化6.6.2、rsync资源同步6.6.2.1、rsync 是什么6.6.SEO靠我2.2、安装与简单使用 rsync 进行文件同步6.6.2.3、安全认证以及免密登录6.6.2.4、rsync 常用选项6.6.2.5、安装inotify6.6.2.6、inotify 配合 rsynSEO靠我c 进行文件同步6.6.2.7、inotify 常用选项6.7、多级缓存6.7.1、强制缓存与协商缓存6.7.2、浏览器强制缓存6.7.3、浏览器缓存原则6.7.4、DNS缓存6.7.4.1、GEOiSEO靠我p6.7.5、正向代理与反向代理缓存6.7.5.1、Proxy缓存7、nginx优化——高效7.1、Nginx内存缓存7.2、Nginx外置缓存7.2.1、error_page配置7.2.2、匿名LoSEO靠我cation7.2.2.1、匿名Location和Return7.2.2.2、nginx + memcached7.2.2.3、redis2-nginx-module7.3、Stream模块7.3.1SEO靠我、QPS限流7.3.2、并发数限制7.3.3、日志7.4、重试机制7.4.1、重试机制配置7.4.2、主动健康检查8、nginx二次开发8.1、Lua基础8.2、Openresty Nginx + LSEO靠我ua8.3、测试lua脚本8.3.1、hello world8.3.2、热部署8.3.3、Lua处理Http请求8.4 OpenResty缓存8.4.1、全局内存缓存8.4.2、lua-resty-lSEO靠我rucache8.4.3、连接redis8.4.4、连接MySQL8.4.5、模板引擎8.5、基于OpenResty的开源项目

1、nginx的安装与简单配置

1.1、环境准备

首先需要安装nginx所需要SEO靠我的依赖:

安装pcre依赖,首先下载对应的gz文件,上传到centos当中进行解压执行 /configure 完成后,回到 pcre 目录下执行 make,最后执行 make install在这里可能回SEO靠我缺少包导致安装失败,只需要将缺少的包yum下载下来即可

随后安装其余 openssl 、zlib 、 gcc 依赖,就直接使用yum进行安装

yum -y install make zlib zlib-dSEO靠我evel gcc-c++ libtool openssl openssl-devel

之后进行安装nginx,当官网进行下载gz文件,进行解压,解压后进入解压缩目录,执行./configure。而后执行SEO靠我 make 和 make install 最后进入目录 /usr/local/nginx/sbin/nginx 启动服务

启动nginx报错:nginx: [emerg] bind() to 0.0.0SEO靠我.0:80 failed (98: Address already in use)

首先还是想到去查看是哪个端口占用了nginx默认80端口,通过命令 netstat -natp |grSEO靠我ep 80 netstat 找不到命令即进行安装yum install net-tools -y找到对应的端口进行kill掉即可 或者进入到安装目录下/conf目录下的nginx.coSEO靠我nf文件将默认端口进行修改./nginx -c /tools/nginx/nginx-1.23.3/conf/nginx.conf

1.2、nginx基本操作指令:

启动服务:./nginx SEO靠我 退出服务:./nginx -s quit 强制关闭服务:./nginx -s stop 重载服务:./nginx -s reload  (重载服务配置文件,类似于重SEO靠我启,但服务不会中止) 验证配置文件:./nginx -t 使用配置文件:./nginx -c "配置文件路径"./nginx -c /tools/nginx/nginxSEO靠我/nginx-1.12.2/conf/nginx.conf 使用帮助:./nginx -h 查看状态 systemctl status nginx 启动SEO靠我 systemctl start nginx

开放默认端口号:

# 启动、关闭防火墙 systemctl start firewalld.service # 查看开放的端口SEO靠我号 firewall-cmd --list-all # 设置开放的端口号 firewall-cmd --add-service=http –permanSEO靠我ent firewall-cmd --add-port=81/tcp --permanent # 重启防火墙 firewall-cmd --reloadSEO靠我

之后就可以直接使用ip进行访问了。查看nginx状态报错:systemctl status nginx --- Unit nginx.service could not be found. 错误的原因SEO靠我就是没有添加nginx服务,在/root/etc/init.d/目录下新建文件,文件名为nginx,插入以下代码,只需要对本机nginx的配置文件所在地址进行调整即可。

. /etc/rc.d/initSEO靠我.d/functions . /etc/sysconfig/network [ "$NETWORKING" = "no" ] && exit 0 ngiSEO靠我nx="/usr/local/nginx/sbin/nginx" prog=$(basename $nginx) # nginx配置文件地址 NGINXSEO靠我_CONF_FILE="/tools/nginx/nginx/nginx-1.12.2/conf/nginx.conf" lockfile=/var/lock/subsys/nginxSEO靠我 start() { [ -x $nginx ] || exit 5 [ -f $NGINX_CONF_FILE ] || exit 6 SEO靠我 echo -n $"Starting $prog: " daemon $nginx -c $NGINX_CONF_FILE retval=$? echSEO靠我o [ $retval -eq 0 ] && touch $lockfile return $retval } stop() { SEO靠我 echo -n $"Stopping $prog: " killproc $prog -QUIT retval=$? echo SEO靠我 [ $retval -eq 0 ] && rm -f $lockfile return $retval } restart() { cSEO靠我onfigtest || return $? stop start } reload() { configtest ||SEO靠我 return $? echo -n $"Reloading $prog: " killproc $nginx -HUP RETVAL=$? SEO靠我 echo } force_reload() { restart } configtest() { SEO靠我$nginx -t -c $NGINX_CONF_FILE } rh_status() { status $prog } SEO靠我 rh_status_q() { rh_status >/dev/null 2>&1 } case "$1" in start) SEO靠我 rh_status_q && exit 0 $1 ;; stop) rh_status_q || exit 0 SEO靠我 $1 ;; restart|configtest) $1 ;; reload) rh_status_qSEO靠我 || exit 7 $1 ;; force-reload) force_reload ;; statuSEO靠我s) rh_status ;; condrestart|try-restart) rh_status_q || exit 0 SEO靠我 ;; *) echo $"Usage: $0 {start|stop|status|restart|condrestart|try-restart|reload|SEO靠我force-reload|configtest}" exit 2 esac

1.3、安装成系统服务

创建服务脚本(如果存在该文件,直接覆盖内容即可或者进行备份一下)

vi /SEO靠我usr/lib/systemd/system/nginx.service

服务脚本内容:在这里需要注意的是:通过这种方式进行启动nginx是读取的/usr/local/nginx/conf/nginx.SEO靠我conf配置文件,当然如果你需要使用安装目录下的配置文件,只需要将地址进行修改即可。

[Unit] Description=nginx - web server AfteSEO靠我r=network.target remote-fs.target nss-lookup.target [Service] Type=forking PSEO靠我IDFile=/usr/local/nginx/logs/nginx.pid ExecStartPre=/usr/local/nginx/sbin/nginx -t -c /usr/lSEO靠我ocal/nginx/conf/nginx.conf ExecStart=/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/ngSEO靠我inx.conf ExecReload=/usr/local/nginx/sbin/nginx -s reload ExecStop=/usr/local/nginx/SEO靠我sbin/nginx -s stop ExecQuit=/usr/local/nginx/sbin/nginx -s quit PrivateTmp=true SEO靠我 [Install] WantedBy=multi-user.target

重新加载系统服务

systemctl daemon-reload

启动服务

systemctl start/sSEO靠我tatus/stop/reload nginx.service

设置开机自启动

systemctl enable nginx.service

1.4、conf 配置文件说明

最小配置文件说明

# 默认为1,表示SEO靠我默认开启一个业务进程 worker_processes 1; # 单个进程可连接服务数 events {worker_connections 1024;SEO靠我 }http {# 引入mime.types类型,该文件与nginx配置文件同级,在配置文件同级下mime.types,文件内容表示,不同的文件类型响应的方式不同include SEO靠我 mime.types;# 如果mime类型没匹配上,默认使用二进制流的方式传输。default_type application/octet-stream;# 高效网络传输 -- 数据0拷贝sSEO靠我endfile on;# 连接超时时间keepalive_timeout 65;server {# 监听端口listen 80;# 主机名:这里在etc/host当中配置了SEO靠我localhost也就是127.0.0.1server_name localhost;location / {root html;index index.html index.htm;}errSEO靠我or_page 500 502 503 504 /50x.html;location = /50x.html {root html;}} }

2、虚拟主机

原本一台服务器只能对应一个站点,通过虚SEO靠我拟主机技术可以虚拟化成多个站点同时对外提供服务

在C:\Windows\System32\drivers\etc下hosts文件当中添加一个虚拟主机地址

192.168.60.128 lzq.com

2.1SEO靠我、nginx多主机配置

在配置文件当中我们复制一个server出来,将端口号修改为82,并且设置其对应的root指定的位置

server {listen 82;server_name locSEO靠我alhost;location / {root html/www;index index.html index.htm;}error_page 500 502 503 504 /50x.hSEO靠我tml;location = /50x.html {root html;}}

2.2、二级域名与短网址解析

3、基于反向代理的负载均衡

3.1、跳转到外部网站配置

在这里我们修改localtion的配置,SEO靠我这里跳转到外网不支持https协议,如果键入https协议的地址就会被直接重定向到目标地址

location / {proxy_pass http://www.redis.cn/;}

3.2、跳转到局域网SEO靠我配置

location / {proxy_pass http://192.168.60.129/;}

3.3、负载均衡配置

upstream load{server 192.168.60.129:81;seSEO靠我rver 192.168.60.130:81;}server {listen 81;server_name localdomain;location / {proxy_pass httpSEO靠我://load;}}

3.4、负载均衡策略

3.4.1、轮询——weight(权重)

默认情况下使用轮询方式,逐一转发,

down:表示当前的server暂时不参与负载weight:默认为1.weight越大SEO靠我,负载的权重就越大。backup: 其它所有的非backup机器down或者忙的时候,请求backup机器 upstream load{server 192.168.60.129:81 weiSEO靠我ght=5 down;server 192.168.60.130:81 weight=3;server 192.168.60.131:81 weight=2 backup;}

3.4.2、其他负载均衡策SEO靠我

3.5、动静分离

3.5.1、动静分离原理

动静分离指的就是将部署在tomcat服务器(或目标服务器)上的静态资源进行抽离出来单独部署在nginx上,这样一个请求打过来,直接就可以通过nginx将静态资SEO靠我源(img/css/js/mp4)进行返回,而其他的动态请求再打到后续的tomcat等服务器上,这样也就降低了后续服务器的压力,也减少了网络传输下的大静态资源文件的压力

3.5.2、tomcat静态资源SEO靠我部署

首先我们需要部署一个tomcat,在tomcat下下载一个gz包,上传到服务器,进行解压,切入到bin目录下执行 ./startup.sh进行启动tomcat服务,同时在webapps下上传一个前SEO靠我端页面资源包,如上传一个叫login的包,这个时候我们只需要访问 虚拟机IP:tomcat端口/login即可访问到这个静态资源了。

3.5.3、nginx简单实现动静分离,

这里简单说明一下前端包的内容SEO靠我,login下存了一个index.html和一个static静态资源包(包含了css/img/js等)这时我们将tomcat下的该静态资源都删掉,这个时候访问tomcat的时候无法获取静态资源就会导致SEO靠我页面混乱。

而nginx动静分离就是用于处理这个的,我们在nginx下进行代理到目标tomcat的地址,这个时候将静态资源上传到nginx服务器上,添加配置如下即可实现动静分离,并且这个时候再访问ngiSEO靠我nx服务器,会转到tomcat地址,并且页面以及静态资源都可以完整的加载出来。

location / {proxy_pass http://192.168.60.130:8081/login/;}locSEO靠我ation /static {root html;}

3.5.4、location的正则匹配

匹配符说明/通用匹配,任何请求都会匹配到。=精准匹配,不是以指定模式开头~正则匹配,区分大小写~*正则匹配,不SEO靠我区分大小写^~非正则匹配,匹配以指定模式开头的location

匹配顺序

多个正则location直接按书写顺序匹配,成功后就不会继续往后面匹配普通(非正则)location会一直往下,直到找到匹配度最高SEO靠我的(最大前缀匹配)当普通location与正则location同时存在,如果正则匹配成功,则不会再执行普通匹配所有类型location存在时,“=”匹配 > “^~”匹配 > 正则匹配 > 普通(最大SEO靠我前缀匹配)

3.6、UrlRewrite

rewrite是实现URL重写的关键指令,根据regex (正则表达式)部分内容,重定向到replacement,简单的来说就是对页面入参的隐藏,

首先在目标tomSEO靠我cat下覆盖默认的jsp,也就是在webapp/ROOT/index.jsp,简单编写一个jsp文件,用来获取页面的url传参

<%@ page language="java" contentType=SEO靠我"text/html; charset=UTF-8" pageEncoding="UTF-8" %><!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 TransSEO靠我itional//EN" "http://www.w3.org/TR/html4/loose.dtd"><html><head><title>入参解析</title></head><body><%ouSEO靠我t.println("获取入参");out.println(request.getParameter("page"));%></body><script>let page = window.locatSEO靠我ion.search.substr(1).split(=)[1]console.log(page = , page)</script></html>

这个时候我可以对该index.jsp进行验证,直接访SEO靠我问tomcat根地址并且附带参数,如:http://192.168.60.130:8081/?page=4可以看到在page的值改变之后,页面展示也会变化,而对于nginx服务机修改nginx配置,表SEO靠我示当访问nginx下的2.html页面的时候会转到index.jsp?page=2这个页面,这样也就实现了对入参的隐藏。

location / {rewrite ^/2.html$ /index.SEO靠我jsp?page=2 break;proxy_pass http://192.168.60.130:8081;}

同理,这样对单个页面进行绑定肯定是不够的,所以这里还可以直接通过正则去进行匹配,如下SEO靠我

location / {rewrite ^/([0-9]+).html$ /index.jsp?page=$1 break;proxy_pass http://192.168.60.130:8081SEO靠我;}

flag标记说明

flag标记说明last本条规则匹配完成后,继续向下匹配新的location URI规则break本条规则匹配完成即终止,不再匹配后面的任何规则redirect返回302临时重定向SEO靠我,浏览器地址会显示跳转后的URL地址permanent返回301永久重定向,浏览器地址栏会显示跳转后的URL地址

3.7、对资源机进行拦截

我们现在配置了两台机器,一个是负载均衡nginx一个是tomcaSEO靠我t服务器,这是如果我们想访问tomcat只能通过nginx进行反向代理才能进行访问,这个时候我们只需要打开tomcat机器防火墙以及对8081端口进行配置规则即可

# 开启防火墙 systemctl sSEO靠我tart firewalld # 重载规则 firewall-cmd --reload # 查看已有规则 firewall-cmd --list-all # 指定端口和ip访问 firewall-cmSEO靠我d --permanent --add-rich-rule="rule family="ipv4" source address="192.168.60.128" port protocol="tcpSEO靠我" port="8081" accept" # 移除规则 firewall-cmd --permanent --remove-rich-rule="rule family="ipv4" source SEO靠我address="192.168.60.128" port port="8081" protocol="tcp" accept"

3.8、防盗链配置

在我们现在的nginx当中有很多的静态资源,我们可以通SEO靠我过地址直接进行访问,如:http://192.168.60.128:81/static/img/in_top_bj1.jpg,但是我们只希望通过该ip才能进行访问并且返回,这个时候就需要使用到防盗链了SEO靠我

在nginx当中加入配置,该表示只有通过128机器访问的静态资源才能被完整的返回,其他的将会被重定向到html/403.html

location ~*/(css|img|js) {valid_refSEO靠我erers 192.168.60.128;if ($invalid_referer) {# 或者将盗链请求转发给一张404.png的图片# rewrite ^/ /static/img/404.jpgSEO靠我 break;return 403;}root html;}error_page 403 /403.html;location = /403.html {root html;}

4、HA高可用配SEO靠我置及解决方案

4.1、HA高可用原理(High Availability)

4.2、安装keepalived

yum install -y keepalived

安装keepalived之后我们修改其对应的配SEO靠我置,配置文件存在 /etc/keepalived/keepalived.conf

! Configuration File for keepalivedglobal_defs {# one 自己定义一个SEO靠我名称router_id one }# one 自己定义一个名称 vrrp_instance one {state MASTER# ens160 这个对应自己虚拟机的网卡interface ens160SEO靠我virtual_router_id 51priority 100advert_int 1authentication {auth_type PASSauth_pass 1111}# 使用到的虚拟ip,SEO靠我可以配置多个virtual_ipaddress {192.168.60.132} }

之后直接通过 systemctl start keepalived 命令进行启动

启动报错:pid 6465 exitSEO靠我ed with permanent error CONFIG. Terminating

查看对应的keepalived.service,发现没有keepalived.pid文件,将该文件添加到指定目录即SEO靠我可[root@localhost keepalived]# cat /lib/systemd/system/keepalived.service [Unit] Description=LVS and SEO靠我VRRP High Availability Monitor After=network-online.target syslog.target Wants=network-online.targetSEO靠我[Service] Type=forking PIDFile=/var/run/keepalived.pid KillMode=process EnvironmentFile=-/etc/sysconSEO靠我fig/keepalived ExecStart=/usr/sbin/keepalived $KEEPALIVED_OPTIONS ExecReload=/bin/kill -HUP $MAINPIDSEO靠我[Install] WantedBy=multi-user.target [root@localhost keepalived]# cat /var/run/keepalived.pid cat: /SEO靠我var/run/keepalived.pid: 没有那个文件或目录

修改配置之后systemctl daemon-reload 重新载入之后再次重启即可,启动完成之后使用 ip addr 命令进行查看ISEO靠我P地址,在keepalived里面加入了一个192.168.60.132虚拟地址,可以看到132这个虚拟ip已经被添加进来了,这也就说明keepalived配置好了。

[root@localhost sSEO靠我ystem]# ip addr 2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group defaulSEO靠我t qlen 1000。。。link/ether 00:0c:29:e5:23:0b brd ff:ff:ff:ff:ff:ffinet 192.168.60.132/32 scope global SEO靠我ens160valid_lft forever preferred_lft forever

相同的配置再另外一台机器上也安装keepalived并且进行验证,这个时候虚拟ip还只在第一台机器,我们直接通SEO靠我过本机cmd进行ping查看效果。在ping一台目标主机的时候,我们突然手动关闭虚拟机,用来模拟服务器宕机的效果,可以看到在一段时间内请求不到,而后又可以请求得到,这个时候我们看备用的ip会发现虚拟ISEO靠我P已经被转移到该备用机上了。

4.3、Keepalived的选举机制和切换机制

keepalived中优先级高的节点为MASTER。MASTER其中一个职责就是响应VIP的arp包,将VIP和mac地址映SEO靠我射关系告诉局域网内其他主机,同时,它还会以多播的形式(默认目的地址224.0.0.18)向局域网中发送VRRP通告,告知自己的优先级。网络中的所有BACKUP节点只负责处理MASTER发出的多播包,当SEO靠我发现MASTER的优先级没自己高,或者没收到MASTER的VRRP通告时,BACKUP将自己切换到MASTER状态,然后做MASTER该做的事:响应arp包和发送VRRP通告,主要由keepaliveSEO靠我d的配置文件 priority 100 优先级进行配置决定谁为master。

5、HTTP协议配置

5.1、不安全的HTTP协议

在http协议传输过程当中,数据传输是不安全的,如下图所示,可以看到当使用对SEO靠我称加密的时候,一当加密算法泄露或者破解,那就可以在中途进行密文的解密,再进行明文篡改再进行明文加密

而当使用非对称加密的时候,获取公钥这一步也会被进行攻击,

5.2、CA认证

CA认证就避免了以上问题,因为SEO靠我直接获取的是CA发的证书,而操作系统又携带了对应的公钥,无论在哪一步进行网络攻击都达不到效果

5.3、证书的安装

5.3.1、搭建一个网站

在这里我们简单介绍如何搭建一个自己的云服务器,这里我们使用阿里云的SEO靠我云服务器,

5.3.1.1、购买云服务器

首先登录阿里云,在菜单当中选择 云服务器ECS 之后创建一个ECS,在这里我们可以选择服务器的相关配置,这里采用中国香港下 2vCPU和2GB内存、镜像使用cenSEO靠我tos 7.6 64位,在后续的系统设置当中设置密码即可。

5.3.1.2、购买域名

同样的在菜单当中找到 域名 这一个菜单,进去之后可以看到立即注册域名,然后搜索我们想用的域名如下,之后将其加入到清单当SEO靠我中,再点击域名清单进行购买即可。

立即购买如果是第一次需要进行创建信息模板,也就相当于实名验证,等待实名验证通过之后进行购买即可 5.3.1.3、域名解析

这一步就是将购买的域名与云服务器进行绑定,在域名通SEO靠我过后,可以看到我们的全部域名,点一下就会跳转到域名列表,在域名列表当中我们进行解析域名。

添加记录,将域名都解析到云服务器上

5.3.2、安装证书到nginx

在阿里云上进行配置证书,在SSL证书这里我们可SEO靠我以选择一个免费证书,之后将对应的域名等信息填好之后进行申请证书即可。

证书申请通过之后,将证书进行下载下来,下载后会得到两个文件,将该文件上传到nginx的conf目录下,之后修改nginx配置

servSEO靠我er {listen 443 ssl;server_name qmqlzq.top;ssl_certificate XXX.pem;ssl_certificate_key XXX.key; }

6、ngSEO靠我inx优化——扩容

扩容无疑是最简单粗暴的解决性能问题的方案,

6.1、单机垂直扩容

加硬件资源通常更新以下几个硬件

云服务器主机CPU/主板网卡磁盘:

6.2、水平扩展:集群化

6.2.1、ipHash维持会话SEO靠我

根据用户请求的ip,利用算法映射成hash值,分配到特定的tomcat服务器中。主要是为了实现负载均衡,只要用户ip固定,则hash值固定,特定用户只能访问特定服务器,解决了session的问题。

应用SEO靠我场景:中小型项目快速扩容

缺点 局域网内ip会被集中转发到同一台机器。后端服务器宕机会导致会话过期

配置ipHash

upstream httpds {ip_hash;server 192.168.60.13SEO靠我0 ;server 192.168.60.131 ; }server {listen 80;server_name localhost;location / {proxy_pass htSEO靠我tp://httpds;} }

6.2.2、$request_uri维持会话

主要用来针对请求的uri中的参数进行控制。

配置$request_uri

upstream httpds {hash $requeSEO靠我st_uri;server 192.168.60.130 ;server 192.168.60.131 ; }

6.2.3、$cookie_jsessionid维持会话

主要用来针对浏览器当中携带的jseSEO靠我ssionid进行控制

配置$request_uri

upstream httpds {hash $cookie_jsessionid;server 192.168.60.130 ;server 192.SEO靠我168.60.131 ; }

6.2.4、使用sticky模块完成对Nginx的负载均衡

下载地址:https://bitbucket.org/nginx-goodies/nginx-sticky-modSEO靠我ule-ng/downloads/?tab=tags

下载完成之后将gz包上传到centos上进行解压,解压完成之后在nginx目录下进行安装,后面的–add-module=指向sticky解压地址,

#SEO靠我 进行安装 ./configure --add-module=/tools/nginx/nginx-goodies-nginx-sticky-module-ng-c78b7dd79d0d # 再进行mSEO靠我ake make # 在make完成之后会生成一个objs文件夹,这个时候我们进行nginx升级,直接将objs/nginx 复制到之前的nginx安装目录下 cp nginx /usr/local/SEO靠我nginx/sbin/

安装报错

/tools/nginx/nginx-goodies-nginx-sticky-module-ng-c78b7dd79d0d/ngx_http_sticky_moduleSEO靠我.c: 在函数‘ngx_http_init_sticky_peer’中: /tools/nginx/nginx-goodies-nginx-sticky-module-ng-c78b7dd79d0d/SEO靠我ngx_http_sticky_module.c:207:55: 错误:‘ngx_http_headers_in_t’ {或称 ‘struct <匿名>’} has no member named ‘SEO靠我cookies’; did you mean ‘cookie’?if (ngx_http_parse_multi_header_lines(&r->headers_in.cookies, &iphp-SEO靠我>sticky_conf->cookie_name, &route) != NGX_DECLINED) {^~~~~~~cookie /tools/nginx/nginx-goodies-nginx-SEO靠我sticky-module-ng-c78b7dd79d0d/ngx_http_sticky_module.c:207:64: 错误:传递‘ngx_http_parse_multi_header_linSEO靠我es’的第 2 个参数时在不兼容的指针类型间转换 [-Werror=incompatible-pointer-types]if (ngx_http_parse_multi_header_lines(&SEO靠我r->headers_in.cookies, &iphp->sticky_conf->cookie_name, &route) != NGX_DECLINED) {^~~~~~~~~~~~~~~~~~SEO靠我~~~~~~~~~~~~~ In file included from /tools/nginx/nginx-goodies-nginx-sticky-module-ng-c78b7dd79d0d/nSEO靠我gx_http_sticky_module.c:9: src/http/ngx_http.h:106:18: 附注:需要类型‘ngx_table_elt_t *’ {或称 ‘struct ngx_taSEO靠我ble_elt_s *’},但实参的类型为‘ngx_str_t *’ {或称 ‘struct <匿名> *’}ngx_table_elt_t *ngx_http_parse_multi_header_SEO靠我lines(ngx_http_request_t *r,^~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ /tools/nginx/nginx-goodies-nginx-stickSEO靠我y-module-ng-c78b7dd79d0d/ngx_http_sticky_module.c:207:6: 错误:提供给函数‘ngx_http_parse_multi_header_lines’SEO靠我的实参太少if (ngx_http_parse_multi_header_lines(&r->headers_in.cookies, &iphp->sticky_conf->cookie_name, SEO靠我&route) != NGX_DECLINED) {^~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ In file included from /tools/nginx/nginxSEO靠我-goodies-nginx-sticky-module-ng-c78b7dd79d0d/ngx_http_sticky_module.c:9: src/http/ngx_http.h:106:18:SEO靠我 附注:在此声明ngx_table_elt_t *ngx_http_parse_multi_header_lines(ngx_http_request_t *r,^~~~~~~~~~~~~~~~~~~SEO靠我~~~~~~~~~~~~~~ cc1:所有的警告都被当作是错误 make[1]: *** [objs/Makefile:1206:objs/addon/nginx-goodies-nginx-sticSEO靠我ky-module-ng-c78b7dd79d0d/ngx_http_sticky_module.o] 错误 1 make[1]: 离开目录“/tools/nginx/nginx-1.23.3” maSEO靠我ke: *** [Makefile:10:build] 错误 2

这个时候需要修改sticky下的ngx_http_sticky_module.c代码,找到以下代码进行注释,并且添加一行

// if (nSEO靠我gx_http_parse_multi_header_lines(&r->headers_in.cookies, &iphp->sticky_conf->cookie_name, &route) !=SEO靠我 NGX_DECLINED) {if (ngx_http_parse_multi_header_lines(r, r->headers_in.cookie, &iphp->sticky_conf->cSEO靠我ookie_name, &route) != NULL) {

使用sticky和前面使用iphash一样。

6.3、Keepalive

6.3.1、在浏览器中查看是否启用keepalive

TCP的keepaSEO靠我live是侧重在保持客户端和服务端的连接,一方会不定期发送心跳包给另一方,当一方端掉的时候,没有断掉的定时发送几次心跳包,如果间隔发送几次,对方都返回的是RST,而不是ACK,那么就释放当前链接。设想SEO靠我一下,如果tcp层没有keepalive的机制,一旦一方断开连接却没有发送FIN给另外一方的话,那么另外一方会一直以为这个连接还是存活的,几天,几月。那么这对服务器资源的影响是很大的。

HTTP的keeSEO靠我p-alive一般我们都会带上中间的横杠,普通的http连接是客户端连接上服务端,然后结束请求后,由客户端或者服务端进行http连接的关闭。下次再发送请求的时候,客户端再发起一个连接,传送数据,关闭连SEO靠我接。这么个流程反复。但是一旦客户端发送connection:keep-alive头给服务端,且服务端也接受这个keep-alive的话,两边对上暗号,这个连接就可以复用了,一个http处理完之后,另外SEO靠我一个http数据直接从这个连接走了。减少新建和断开TCP连接的消耗。

HTTP协议的Keep-Alive意图在于短时间内连接复用,希望可以短时间内在同一个连接上进行多次请求/响应。

TCP的KeepAliSEO靠我ve机制意图在于保活、心跳,检测连接错误。当一个TCP连接两端长时间没有数据传输时(通常默认配置是2小时),发送keepalive探针,探测链接是否存活。

在nginx当中默认配置的keepalive_SEO靠我timeout为65秒,我们在浏览器当中访问nginx,打开F12可以在请求标头和响应标头当中可以看到

Connection: keep-alive // 而当将其设置为0的时候,就会关闭keepaliSEO靠我ve连接 Connection: close

6.3.2、抓包——charles

首先在官网进行下载:https://www.charlesproxy.com/latest-release/downloaSEO靠我d.do

6.3.3、keepalive配置

配置说明keepalive向上游服务器的保留连接数keepalive_time限制keepalive保持连接的最大时间

keepalive_timeout = SEO靠我0 即关闭send_timeout两次向客户端写操作之间的间隔 如果大于这个时间则关闭连接 默认60skeepalive_request默认1000,单个连接中可处理的请求数keepalive_disSEO靠我able不对某些浏览器建立长连接

6.3.4、apache-benchmark压力测试

直接通过yum命令进行安装

yum install httpd-tools # 安装完成之后使用以下命令进行测试是否安SEO靠我装好了 ab

并且对应ab的相关指令如下表:

指令说明-n即requests,用于指定压力测试总共的执行次数。-c即concurrency,用于指定的并发数。-t即timelimit,等待响应的最大时间(SEO靠我单位:秒)。-b即windowsize,TCP发送/接收的缓冲大小(单位:字节)。-p即postfile,发送POST请求时需要上传的文件,此外还必须设置-T参数。-u即putfile,发送PUT请求SEO靠我时需要上传的文件,此外还必须设置-T参数。-T即content-type,用于设置Content-Type请求头信息,例如:application/x-www-form-urlencoded,默认值为SEO靠我text/plain。-v即verbosity,指定打印帮助信息的冗余级别。-w以HTML表格形式打印结果。-i使用HEAD请求代替GET请求。-x插入字符串作为table标签的属性。-y插入字符串作SEO靠我为tr标签的属性。-z插入字符串作为td标签的属性。-C添加cookie信息,例如:“Apache=1234”(可以重复该参数选项以添加多个)。-H添加任意的请求头,例如:“Accept-EncodiSEO靠我ng: gzip”,请求头将会添加在现有的多个请求头之后(可以重复该参数选项以添加多个)。-A添加一个基本的网络认证信息,用户名和密码之间用英文冒号隔开。-P添加一个基本的代理认证信息,用户名和密码之SEO靠我间用英文冒号隔开。-X指定使用的和端口号,例如:“126.10.10.3:88”。-V打印版本号并退出。-k使用HTTP的KeepAlive特性。-d不显示百分比。-S不显示预估和警告信息。-g输出结SEO靠我果信息到gnuplot格式的文件中。-e输出结果信息到CSV格式的文件中。-r指定接收到错误信息时不退出程序。-h显示用法信息,其实就是ab -help。

在这里进行压力测试,以下命令表示直接访问该地址SEO靠我,发送500次请求按50组进行发送,这里进行试验测试:分别对直连nginx、nginx反向代理、直连tomcat、通过nginx反向代理到tomcat,后续日志我们只需要观察其中的Requests pSEO靠我er second(Qps)和 Transfer rate(传输速率)

[root@localhost ~]# ab -n 500 -c50 http://192.168.60.128:81/ ThisSEO靠我 is ApacheBench, Version 2.3 <$Revision: 1843412 $> Copyright 1996 Adam Twiss, Zeus Technology Ltd, SEO靠我http://www.zeustech.net/ Licensed to The Apache Software Foundation, http://www.apache.org/BenchmarkSEO靠我ing 192.168.60.128 (be patient) Completed 100 requests Completed 200 requests Completed 300 requestsSEO靠我 Completed 400 requests Completed 500 requests Finished 500 requestsServer Software: nginx/1.SEO靠我23.3 Server Hostname: 192.168.60.128 Server Port: 81Document Path: / DocuSEO靠我ment Length: 12793 bytesConcurrency Level: 50 Time taken for tests: 34.643 seconds ComSEO靠我plete requests: 500 Failed requests: 0 Total transferred: 6558500 bytes HTML transfSEO靠我erred: 6396500 bytes Requests per second: 14.43 [#/sec] (mean) Time per request: 3464SEO靠我.304 [ms] (mean) Time per request: 69.286 [ms] (mean, across all concurrent requests) TransferSEO靠我 rate: 184.88 [Kbytes/sec] receivedConnection Times (ms)min mean[+/-sd] median max ConneSEO靠我ct: 0 0 2.7 0 55 Processing: 72 2914 7169.3 956 34545 Waiting: 7SEO靠我1 877 3028.2 382 34169 Total: 73 2914 7169.3 956 34546Percentage of the requests SEO靠我served within a certain time (ms)50% 95666% 105275% 203580% 208690% 426395% 1709898% 34SEO靠我26299% 34343100% 34546 (longest request)

6.3.5、nginx反向代理tomcat性能提升

在进行直连tomcat和通过nginx进行反向代理tomcat的压SEO靠我力测试后,可以发现通过反向代理的吞吐量和传输速率都有一定的提升,这是因为在nginx当中配置了keepalived,这时大量请求打到nginx上,会有很多的请求复用keepalived,不会中断连接,SEO靠我这也就是为什么通过反向代理的性能比直连要好的原因

6.4、Nginx反向代理核心流程

6.4.1、proxy_pass工作流程

6.4.2、获取真实的IP

这里我们首先提供一个java代码用来打印日志表示获取SEO靠我对应的Head和ip信息。

@GetMapping("/getRealIp")public void getRealIp(HttpServletRequest request) throws ServlSEO靠我etException, IOException {Enumeration<String> headerNames = request.getHeaderNames();while (headerNaSEO靠我mes.hasMoreElements()) {String hName = headerNames.nextElement();logger.info(hName, "=====", requestSEO靠我.getHeader(hName));}logger.info("getRemoteHost ==== ", request.getRemoteHost());logger.info("getRemoSEO靠我tePort ==== ", request.getRemotePort());logger.info("getRemoteAddr ==== ", request.getRemoteAddr());SEO靠我logger.info("x-forwarder-for ==== ", request.getHeader("x-forwarder-for"));}

然后峰分别查看直接本地启动程序进行访问、放到liSEO靠我nux下进行启动访问、通过nginx反向代理进行访问,通过这三个对比会发现获取到的IP地址其实并不是想要的ip地址、

# 本地启动访问 http://127.0.0.1:8888/getRealIp gSEO靠我etRemoteHost ==== 127.0.0.1 getRemotePort ==== 50699 getRemoteAddr ==== 127.0.0.1 # 虚拟机启动war包进行访问 htSEO靠我tp://192.168.60.128:8888/getRealIp getRemoteHost ==== 192.168.60.1 getRemotePort ==== 50870 getRemotSEO靠我eAddr ==== 192.168.60.1 # 通过nginx反向代理访问 http://192.168.60.128:81/ getRemoteHost ==== 192.168.60.131 SEO靠我getRemotePort ==== 34836 getRemoteAddr ==== 192.168.60.131

这里通过nginx反向代理添加以下配置

proxy_set_header X-ForwSEO靠我arded-For $remote_addr; # 这个时候再进行访问nginx,通过x-forwarded-for获取其真实ip地址 getRemoteHost ==== 192.168.60.13SEO靠我1 getRemotePort ==== 34856 getRemoteAddr ==== 192.168.60.131 x-forwarded-for ==== 192.168.60.1

6.5、服务SEO靠我端优化

6.5.1、Gzip压缩

gzip不是一种算法,可以说它是一种压缩工具,或者说它是一种文件格式。因为不管是用什么软件去压,也不管用哪种实现库去压,只要最终结果是gzip的压缩结构,那么该结果肯定是SEO靠我按照gzip文件格式组织的,可以把gzip文件格式理解为一只虾(头、中间、尾),包括三个部分(文件头、文件尾、中间保存被压缩后的数据)

6.5.2、gzip相关配置(Gzip动态压缩) 配置说明gziSEO靠我p on;开关,默认关闭gzip_buffers 32 4k / 16 8k缓冲区大小gzip_comp_level 1;压缩等级 1-9,数字越大压缩比越高gzip_http_version 1.1SEO靠我;使用gzip的最小版本gzip_min_length设置将被gzip压缩的响应的最小长度。 长度仅由“Content-Length”响应报头字段确定。gzip_proxied 多选off 为不做限制SEO靠我作为反向代理时,针对上游服务器返回的头信息进行压缩

expired - 启用压缩,如果header头中包含 “Expires” 头信息

no-cache - 启用压缩,如果header头中包含 “CachSEO靠我e-Control:no-cache” 头信息

no-store - 启用压缩,如果header头中包含 “Cache-Control:no-store” 头信息

private - 启用压缩,如果heaSEO靠我der头中包含 “Cache-Control:private” 头信息

no_last_modified - 启用压缩,如果header头中不包含 “Last-Modified” 头信息

no_etag SEO靠我- 启用压缩 ,如果header头中不包含 “ETag” 头信息

auth - 启用压缩 , 如果header头中包含 “Authorization” 头信息

any - 无条件启用压缩gzip_varySEO靠我 on;增加一个header,适配老的浏览器 Vary: Accept-Encodinggzip_types哪些mime类型的文件进行压缩gzip_disable禁止某些浏览器使用gzip

完整实例:

gSEO靠我zip on;gzip_buffers 16 8k;gzip_comp_level 6;gzip_http_version 1.1;gzip_min_length 256;gzip_proxied aSEO靠我ny;gzip_vary on;gzip_types text/plain application/x-javascript text/css application/xml;gzip_typesteSEO靠我xt/xml application/xml application/atom+xml application/rss+xml application/xhtml+xml image/svg+xmltSEO靠我ext/javascript application/javascript application/x-javascripttext/x-json application/json applicatiSEO靠我on/x-web-app-manifest+jsontext/css text/plain text/x-componentfont/opentype application/x-font-ttf aSEO靠我pplication/vnd.ms-fontobjectimage/x-icon;gzip_disable "MSIE [1-6]\.(?!.*SV1)"; 6.5.3、Gzip静态压缩

因为在前面SEO靠我我们安装编译了sticky,这里对于sticky的配置还是不变,添加一个Gzip静态压缩的模块和解压模块。

./configure --add-module=/tools/nginx/nginx-gooSEO靠我dies-nginx-sticky-module-ng-c78b7dd79d0d --with-http_gzip_static_module --with-http_gunzip_module # SEO靠我安装之后进行make,将生成的objs下的nginx复制到usr/local/nginx下 make

首先了解一下这两个模块的作用

ngx_http_gzip_static_module模块允许发送扩展名SEO靠我为“.gz”的预压缩文件,而不是常规文件。

语法: gzip_static on | off | always;

默认值: gzip_static off;

作用于: http, server, locatSEO靠我ion

说明:on和off分别表示是否开启静态压缩,对于“always”值(1.3.6),在所有情况下都使用gzip文件,而不检查客户端是否支持它。如果磁盘上没有未压缩的文件,可以使用ngx_http_SEO靠我gunzip模块配合使用。

ngx_http_gunzip模块是一个过滤器,它为不支持“gzip”编码方法的客户端使用“Content Encoding:gzip”对响应进行解压缩。当需要存储压缩数据以SEO靠我节省空间并降低I/O成本时,该模块将非常有用。

语法: gunzip on | off;

默认值: gunzip off;

作用于: http, server, location

语法: gunzip_bufSEO靠我fers number size;

默认值: gunzip_buffers 32 4k|16 8k;

作用于: http, server, location

说明:设置用于解压缩响应的缓冲区的数量和大小。默SEO靠我认情况下,缓冲区大小等于一个内存页。这是4K或8K,取决于平台。

这个时候添加了静态压缩模块和解压模块,在nginx配置当中加入以下配置,这样配置的作用在于当无论说静态压缩是否存在gz包、客户端是否支持SEO靠我gzip,都会通过gunzip进行解压发送到客户端。

gunzip: on; gzip_static: always; 6.5.4、第三方zip模块Brotli与模块化加载

首先我们在对应的官网下进行SEO靠我下载gz包,这两个项目都托管在github,在其tag下选择版本进行下载。

https://github.com/google/ngx_brotli

https://github.com/google/bSEO靠我rotli

下载之后将gz包上传到虚拟机上# 进行解压 tar -zxvf ngx_brotli-1.0.0rc.tar.gz tar -zxvf brotli-1.0.9.tar.gz cd brSEO靠我otli-1.0.9 # 将brotli-1.0.9全部内容移动到ngx_brotli-1.0.0rc/deps/brotli目录下 mv ./* /tools/nginx/ngx_brotli-1.SEO靠我0.0rc/deps/brotli/ # 进行编译--add-dynamic-module后跟上对应的存放目录 ./configure --add-module=/tools/nginx/nginx-SEO靠我goodies-nginx-sticky-module-ng-c78b7dd79d0d --with-http_gzip_static_module --with-http_gunzip_moduleSEO靠我 --with-compat --add-dynamic-module=/tools/nginx/ngx_brotli-1.0.0rc make # 切换到nginx启动目录下新增一个modules目SEO靠我录 cd /usr/local/nginx/ mkdir modules # 切换到make后的objs目录下,将以下三个文件进行拷贝到nginx启动目录下 cd objs cp ngx_http_bSEO靠我rotli_filter_module.so /usr/local/nginx/modules/ cp ngx_http_brotli_static_module.so /usr/local/nginSEO靠我x/modules/ cp nginx /usr/local/nginx/sbin/

使用Brotli,修改nginx的配置文件,添加如下配置(这里Brotli的配置不过多说明了,可以在github上查SEO靠我看配置说明)

load_module "/usr/local/nginx/modules/ngx_http_brotli_filter_module.so"; load_module "/usr/locSEO靠我al/nginx/modules/ngx_http_brotli_static_module.so";brotli on;brotli_static on;brotli_comp_level 6;brSEO靠我otli_buffers 16 8k;brotli_min_length 20;brotli_types text/plain text/css text/javascript applicationSEO靠我/javascript text/xml application/xml application/xml+rss application/json image/jpeg image/gif imageSEO靠我/png; [root@localhost sbin]# curl -H accept-encoding:br -I http://192.168.60.128:81/ HTTP/1.1 200 SEO靠我OK Server: nginx/1.23.3 Date: Mon, 13 Feb 2023 06:48:24 GMT Content-Type: text/html; charset=utf-8 SEO靠我Connection: keep-alive Last-Modified: Tue, 22 Feb 2022 13:43:36 GMT Cache-Control: private, max-age=SEO靠我0, proxy-revalidate, no-store, no-cache, must-revalidate Content-Encoding: br 6.5.5、合并请求

在一些大型应用当中,SEO靠我一个页面会加载很多的js、css等文件,这个时候我们可以将这些请求进行合并处理,如下:这是淘宝当中的一个获取js文件的请求,可以看到他是通过??和,(逗号)进行分割,一个请求获取多个js文件。

httpSEO靠我s://g.alicdn.com/??kissy/k/6.2.4/seed-min.js,kg/global-util/1.0.7/index-min.js,secdev/sufei_data/3.8SEO靠我.7/index.js

mod_concat模块由淘宝开发,目前已经包含在tengine中,并且淘宝已经在使用这个nginx模块。https://github.com/alibaba/nginx-httSEO靠我p-concat

从github上下载对应的代码上传到linux下进行解压,再进行打包nginx的打包

./configure --add-module=/tools/nginx/nginx-http-cSEO靠我oncat make

添加合并请求的配置

# 开启合并请求concat on;# 最大合并文件数concat_max_files 20;

在html当中通常会引用很多的css文件和js文件,而当开启了合并请SEO靠我求之后将引用进行改写也就完成了合并请求

<!-- 单个引用css文件 --><link rel="stylesheet" href="demo.css"><link rel="stylesheet" hSEO靠我ref="index.css"><!-- 合并引用css文件 --><link rel="stylesheet" href="??demo.css,index.css">

这样修改之后再访问nginx会SEO靠我发现获取css样式的请求变成了:http://192.168.60.128:81/??demo.css,index.css 本质上就是将两个css文件的内容进行合并了。

6.6、资源静态化

6.6.1、nSEO靠我gx_http_ssi_module模块解决资源静态化

在进行访问页面的时候,对于java来说页面响应有很多种方式,比如:模板引擎或者jsp,这些都是通过返回静态文件并且携带上动态数据,在这里可以直接将SEO靠我访问的模板存在nginx当中,这样就省去了一定的nginx与后端服务器的连接,这也就是资源静态化的意义。并且在nginx当中需要部署多个,可以同rsync进行保证nginx上的数据一致性

这里需要了解一SEO靠我下nginx当中的一个模块:ngx_http_ssi_module ,该模块是一个过滤器,它在通过它的响应中处理ssi(服务器端包含)命令。目前,支持的ssi命令列表不完整。

在nginx的配置文件当SEO靠我中打开ssi, ssi on; 添加该配置就可以直接通过其模板进行使用了

<!--# include file="head.html" --><h1>Welcome to nginx 192.168.6SEO靠我0.128!</h1><!--# include file="foot.html" -->

ssi模块配置说明

语法默认值说明ssi on/offon启用或禁用响应中SSI命令的处理ssi_last_moSEO靠我dified on / offoff允许在SSI处理期间保留原始响应中的“Last Modified”标头字段,以便于响应缓存。

默认情况下,在处理过程中修改响应的内容时,标头字段将被删除,并且可能包含SEO靠我动态生成的元素或部分,这些元素或部分独立于原始响应进行更改ssi_min_file_chunk size;1k设置存储在磁盘上的响应部分的最小大小,从使用sendfile发送响应开始ssi_silenSEO靠我t_errors on / offoff如果启用,则在SSI处理过程中发生错误时,禁止输出“[处理指令时发生错误]”字符串ssi_types mime-typetext/html除了“text/htmSEO靠我l”之外,还允许处理具有指定MIME类型的响应中的SSI命令ssi_value_length length256设置SSI命令中参数值的最大长度

6.6.2、rsync资源同步

6.6.2.1、rsyncSEO靠我 是什么

rsync(remote synchronize)是Liunx/Unix下的一个远程数据同步工具。它可通过LAN/WAN快速同步多台主机间的文件和目录,并适当利用rsync算法(差分编码)以减SEO靠我少数据的传输。rsync算法并不是每一次都整份传输,而是只传输两个文件的不同部分,因此其传输速度相当快。除此之外,rsync可拷贝、显示目录属性,以及拷贝文件,并可选择性的压缩以及递归拷贝。

6.6.2SEO靠我.2、安装与简单使用 rsync 进行文件同步

首先准备两台服务器,这里就以128和130进行命名,其中128作为资源同步的主机,现在两台机器上都安装rsync

yum install -y rsync

SEO靠我后先在128机器上进行rsync配置:

# 修改配置文件 vi /etc/rsyncd.conf 文件内容 [ftp]path=/usr/local/nginx/html # 启动rsync rsyncSEO靠我 --daemon # 查看进程判断是否启动成功 (rsync没有重启命令,在进行重启时先kill掉其进程再进行启动) ps -ef | grep rsync

进行同步

# 查看改机器所需要同步的文件 rSEO靠我sync --list-only 192.168.60.128::ftp/rsync -avz 192.168.60.128::ftp/ # 切到130机器下进行同步文件 rsync -avz 1SEO靠我92.168.60.128::ftp/ /usr/local/nginx/html/ 6.6.2.3、安全认证以及免密登录

添加账号密码进行登录

# 进行配置账号密码 echo "admin:1234SEO靠我56" >> /etc/rsyncd.pwd chmod 600 /etc/rsyncd.pwd # 修改配置文件 添加一下内容 vi /etc/rsyncd.conf auth users = adSEO靠我min secrets file = /etc/syncd.pwd# 连接进行测试 rsync --list-only admin@192.168.60.128::ftp/

免密登录

# 新增存放密码文件SEO靠我 将123456存放该文件当中 vi /etc/rsyncd.pwd.clinet # 修改权限 chmod 600 /etc/rsyncd.pwd.clinet # 进行测试 rsync --lisSEO靠我t-only --password-file=/etc/rsyncd.pwd.clinet admin@192.168.60.128::ftp/ 6.6.2.4、rsync 常用选项 选项含义SEO靠我-a包含-rtplgoD-r同步目录时要加上,类似cp时的-r选项-v同步时显示一些信息,让我们知道同步的过程-l保留软连接-L加上该选项后,同步软链接时会把源文件给同步-p保持文件的权限属性-o保持SEO靠我文件的属主-g保持文件的属组-D保持设备文件信息-t保持文件的时间属性–delete删除DEST中SRC没有的文件–exclude过滤指定文件,如–exclude “logs”会把文件名包含logs的SEO靠我文件或者目录过滤掉,不同步-P显示同步过程,比如速率,比-v更加详细-u加上该选项后,如果DEST中的文件比SRC新,则不同步-z传输时压缩 6.6.2.5、安装inotify

直接通过源进行安装,安装SEO靠我之后进行解压编译

wget http://github.com/downloads/rvoicilas/inotify-tools/inotify-tools-3.14.tar.gz tar -zxvfSEO靠我 inotify-tools-3.14.tar.gz cd inotify-tools-3.14 ./configure --prefix=/usr/local/inotify make && makSEO靠我e install 6.6.2.6、inotify 配合 rsync 进行文件同步

在inotify的安装目录下新增脚本,并且对于两台机器上监听的文件夹需要可写权限 chmod 777 xxx 之后SEO靠我启动脚本,在130机器上的新增等文件在该机器上都会进行同步

/usr/local/inotify/bin/inotifywait -mrq --timefmt %d/%m/%y %H:%M --formSEO靠我at %T %w%f %e -e close_write,modify,delete,create,attrib,move //usr/local/nginx/html/ | while read fSEO靠我ile dorsync -az --delete --password-file=/etc/rsyncd.passwd.client /usr/local/nginx/html/ sgg@192.16SEO靠我8.60.130::ftp/ done 6.6.2.7、inotify 常用选项 参数说明含义-r–recursive递归查询目录-q–quiet打印很少的信息,仅仅打印监控事件信息-m–monSEO靠我itor始终保持事件监听状态–excludei排除文件或目录时,不区分大小写–timefmt指定事件输出格式–format打印使用指定的输出类似格式字符串-e–event[ -e|–event … ]SEO靠我accessmodifyattribcloseopenmove_tomove createdeleteumount通过此参数可以指定要监控的事件 #文件或目录被读取#文件或目录的内容被修改#文件或目录SEO靠我属性被改变#文件或目录封闭,无论读/写模式#文件或目录被打开#文件或目录被移动至另外一个目录#文件或目录被移动另一个目录或从另一个目录移动至当前目录#文件或目录被创建在当前目录#文件或目录被删除#文件SEO靠我系统被卸载

6.7、多级缓存

6.7.1、强制缓存与协商缓存

强制缓存:直接从本机读取,不请求服务器

协商缓存:发送请求header中携带Last-Modified,服务器可能会返回304 Not ModifSEO靠我ied

6.7.2、浏览器强制缓存

标记类型功能public响应头响应的数据可以被缓存,客户端和代理层都可以缓存private响应头可私有缓存,客户端可以缓存,代理层不能缓存(CDN,proxy_passSEO靠我)no-cache请求头可以使用本地缓存,但是必须发送请求到服务器回源验证no-store请求和响应应禁用缓存max-age请求和响应文件可以在浏览器中缓存的时间以秒为单位s-maxage请求和响应用SEO靠我户代理层缓存,CDN下发,当客户端数据过期时会重新校验max-stale请求和响应缓存最大使用时间,如果缓存过期,但还在这个时间范围内则可以使用缓存数据min-fresh请求和响应缓存最小使用时间,mSEO靠我ust-revalidate请求和响应当缓存过期后,必须回源重新请求资源。比no-cache更严格。因为HTTP 规范是允许客户端在某些特殊情况下直接使用过期缓存的,比如校验请求发送失败的时候。那么带SEO靠我有must-revalidate的缓存必须校验,其他条件全部失效。proxy-revalidate请求和响应和must-revalidate类似,只对CDN这种代理服务器有效,客户端遇到此头,需要回源SEO靠我验证stale-while-revalidate响应表示在指定时间内可以先使用本地缓存,后台进行异步校验stale-if-error响应在指定时间内,重新验证时返回状态码为5XX的时候,可以用本地缓存SEO靠我only-if-cached响应那么只使用缓存内容,如果没有缓存 则504 getway timeout

6.7.3、浏览器缓存原则

多级集群负载时last-modified必须保持一致还有一些场景下我们SEO靠我希望禁用浏览器缓存。比如轮训api上报数据数据浏览器缓存很难彻底禁用,大家的做法是加版本号,随机数等方法。只缓存200响应头的数据,像3XX这类跳转的页面不需要缓存。对于js,css这类可以缓存很久的SEO靠我数据,可以通过加版本号的方式更新内容不需要强一致性的数据,可以缓存几秒异步加载的接口数据,可以使用ETag来校验。在服务器添加Server头,有利于排查错误分为手机APP和Client以及是否遵循htSEO靠我tp协议在没有联网的状态下可以展示数据流量消耗过多提前下发 避免秒杀时同时下发数据造成流量短时间暴增兜底数据 在服务器崩溃和网络不可用的时候展示临时缓存 退出即清理固定缓存 展示框架这种,可能很长时间SEO靠我不会更新,可用随客户端下发首页有的时候可以看做是框架 应该禁用缓存,以保证加载的资源都是最新的父子连接 页面跳转时有一部分内容不需要重新加载,可用从父菜单带过来预加载 某些逻辑可用判定用户接下来的操作SEO靠我,那么可用异步加载那些资源漂亮的加载过程 异步加载 先展示框架,然后异步加载内容,避免主线程阻塞

6.7.4、DNS缓存

DNS作为将域名和IP地址相互映射的一个分布式数据库,能够使人更方便地访问互联网。SEO靠我DNS使用UDP端口53。当前,对于每一级域名长度的限制是63个字符,域名总长度则不能超过253个字符。

6.7.4.1、GEOip

GeoIP是IP地理位置数据库,可以根据IP获得地理位置信息。

官网:hSEO靠我ttps://www.maxmind.com/en/home 首先需要注册一个账号,注册帐号之后登录之后可以进行下载数据库,这里下载 GeoLite2 Country

并且在github上下载其依赖文件SEO靠我:https://github.com/maxmind/libmaxminddb/releases/tag/1.7.1

libmaxminddb-1.7.1.tar.gz包安装

tar zxvf libmSEO靠我axminddb-1.7.1.tar.gz cd libmaxminddb-1.7.1 ./configure make make install echo /usr/local/lib >> /eSEO靠我tc/ld.so.conf.d/local.conf ldconfig

安装nginx依赖:github下载地址 https://github.com/leev/ngx_http_geoip2_modSEO靠我ule 以及官方模块说明:https://nginx.org/en/docs/http/ngx_http_geoip_module.html

tar -zxvf ngx_http_geoip2_modSEO靠我ule-3.4.tar.gz cd nginx-1.23.3 ./configure --add-module=/tools/nginx/ngx_http_geoip2_module-3.4 makeSEO靠我

配置完成之后修改nginx配置文件

# server 同级geoip2 /tools/nginx/GeoLite2-Country_20230217/GeoLite2-Country.mmdb {$geSEO靠我oip2_country_code country iso_code;}location / {add_header country $geoip2_country_code;}

6.7.5、正向代理与SEO靠我反向代理缓存

6.7.5.1、Proxy缓存 http模块: proxy_cache_path /ngx_tmp levels=1:2 keys_zone=test_cache:100m inactiSEO靠我ve=1d max_size=10g ; location模块: add_header Nginx-Cache "$upstream_cache_status"; proxy_cache test_SEO靠我cache; proxy_cache_valid 1h; tar -zxvf ngx_cache_purge-2.3.tar.gz ./configure --add-module=/toolsSEO靠我/nginx/ngx_cache_purge-2.3 make

7、nginx优化——高效

7.1、Nginx内存缓存

strace:一般应用为静态文件元数据信息缓存

open_file_cache max=SEO靠我500 inactive=60s open_file_cache_min_uses 1; open_file_cache_valid 60s; open_file_cache_errors on SEO靠我 max缓存最大数量,超过数量后会使用LRU淘汰inactive 指定时间内未被访问过的缓存将被删除pen_file_cache_min_uses:被访问到多少次后会开始缓存open_file_caSEO靠我che_valid:间隔多长时间去检查文件是否有变化open_file_cache_errors:对错误信息是否缓存

7.2、Nginx外置缓存

7.2.1、error_page配置

error_page配SEO靠我置,可以将错误的访问页面地址进行控制

error_page 404 =200 /403.html;# error_page 404 =403 https://www.baidu.com;

7.2.2、匿名SEO靠我Location

7.2.2.1、匿名Location和Return

在这里将访问404的请求直接转发给到@666这个localhost,当这个localhost直接返回200时,浏览器将会下一一个空白文SEO靠我件,在200后面可以添加文件内容如hello world,并且可以在localhost当中添加请求头这样浏览器将不会对文件进行下载而是通过html进行展示

error_page 404 = @666;lSEO靠我ocation @666{add_header content-type text/html; charset=utf-8;return 200 "hello world";} 7.2.2.2、nSEO靠我ginx + memcached

首先安装memcached,同时安装一个telnet用来连接memcached

yum -y install memcached systemctl start memSEO靠我cached memcached-tool 127.0.0.1:11211 statsyum install -y telnet telnet 127.0.0.1 11211

而后修改nginx配置

# SEO靠我在location当中加入以下配置set $memcached_key "$uri?$args";memcached_pass 127.0.0.1:11211;add_header X-Cache-SSEO靠我atus HIT;add_header Content-Type text/html; charset=utf-8;

默认直接访问nginx的时候,这是获取到的key为/? 同时在memcached当中SEO靠我设置其键值。而后访问。

set name 0 0 5 12345 7.2.2.3、redis2-nginx-module

首先安装好一个redis,这里可以直接通过源码安装:https://blog.SEO靠我csdn.net/qq_44973159/article/details/121736321 或者直接通过yum命令进行安装

yum install epel-release yum install -SEO靠我y redis

nginx+redis依赖:github地址:https://github.com/openresty/redis2-nginx-module/releases/tag/v0.15

tarSEO靠我 -zxvf redis2-nginx-module-0.15.tar.gz ./configure --add-module=/tools/nginx/redis2-nginx-module-0.SEO靠我15 make

这里我们简单对nginx+redis的配置,详细配置还是可以参考依赖的说明文档

location = /foo {default_type text/html;# redis2_querySEO靠我 auth 123123;set $value first;redis2_query set one $value;redis2_pass 127.0.0.1:6379;}location = /geSEO靠我t {default_type text/html;redis2_pass 127.0.0.1:6379;# redis2_query auth 123123;# set_unescape_uri $SEO靠我key $arg_key; # this requires ngx_set_miscredis2_query get $arg_key;}

7.3、Stream模块

ngx_stream_core_moSEO靠我dule模块自1.9.0版起可用。默认情况下不构建此模块,应使用–withstream配置参数启用它。http://nginx.org/en/docs/stream/ngx_stream_core_mSEO靠我odule.html

./configure --with-stream make

7.3.1、QPS限流

QPS限流模块:http://nginx.org/en/docs/http/ngx_http_SEO靠我limit_req_module.html

limit_req_zone $binary_remote_addr zone=test:10m rate=15r/s; # 在location当中进行配置 SEO靠我 # 平均每秒允许不超过1个请求,突发不超过5个请求。如果不希望在限制请求时延迟过多请求,则应使用参数nodelay: limit_req zone=one burst=5 nodelay; # 最开SEO靠我始下载传输带宽速度1m 后续速度限制为1k limit_rate_after 1m; limit_rate 1k;

7.3.2、并发数限制

7.3.3、日志

日志模块:http://nginx.org/enSEO靠我/docs/http/ngx_http_log_module.html

ngx_http_empty_gif_module模块发出单像素透明gif。http://nginx.org/en/docs/htSEO靠我tp/ngx_http_empty_gif_module.html

location = /_.gif {empty_gif; }

在默认日志配置当中,日志会写入到logs文件夹当中。

设置缓冲日志写入的路SEO靠我径、格式和配置。可以在同一配置级别上指定多个日志。可以通过在第一个参数中指定“syslog:”前缀来配置syslog的日志记录。特殊值off取消当前级别上的所有access_log指令。如果未指定格式SEO靠我,则使用预定义的“组合”格式。

# https下配置 log_format compression $remote_addr - $remote_user [$time_local] "$requestSEO靠我" $status $bytes_sent "$http_referer" "$http_user_agent" "$gzip_ratio"; access_log /ngx_log/logs/ngiSEO靠我nx-access.log compression gzip buffer=32k; # 设置缓存中描述符的最大数量;如果缓存已满,则关闭最近最少使用的(LRU)描述符 open_log_file_cSEO靠我ache max = 5

如果使用gzip进行压缩,可以对gzip文件进行解压

# 修改日志文件为.gz后缀 gzip -d xxxx.gz

error_log(异常日志记录):http://nginx.oSEO靠我rg/en/docs/ngx_core_module.html#error_log

7.4、重试机制

7.4.1、重试机制配置

proxy_next_upstream :http://nginx.org/eSEO靠我n/docs/http/ngx_http_proxy_module.html#proxy_next_upstream

# location下配置 proxy_next_upstream error tiSEO靠我meout; # 限制将请求传递到下一个服务器的时间。0值将关闭此限制。 proxy_next_upstream_timeout 0; # 限制将请求传递到下一个服务器的可能尝试次数。0值将关闭此限制SEO靠我。 proxy_next_upstream_tries 0;# 并且可以在upstream下配置下线 表示10s内失败5次就将该服务器下线 server 192.168.20.128 max_faiSEO靠我ls = 5 fail_timeout = 10s;

7.4.2、主动健康检查

nginx_upstream_check_module模块 https://github.com/yaoweibin/ngiSEO靠我nx_upstream_check_module

找到对应自己nginx的版本的patch脚本

yum install -y patch patch -p1 < /tools/nginx/nginx-1.SEO靠我20/ ./configure --add-module=/tools/nginx/nginx_upstream_check_module-0.4.0 make make install

之后修改配置文SEO靠我

upstream backend {server 192.168.60.128:8081;server 192.168.60.130:8081;check interval=3000 rise=2 SEO靠我fall=5 timeout=1000 type=http;check_http_send "HEAD / HTTP/1.0\r\n\r\n";check_http_expect_alive httpSEO靠我_2xx http_3xx;}location /status {check_status;access_log off;}location / {proxy_pass http://backend;SEO靠我root html;}

8、nginx二次开发

8.1、Lua基础

首先我们在Lua官网下下载包:https://luabinaries.sourceforge.net/

下载zip包后直接解压,而后我们SEO靠我采用idea进行编写,先在idea安装一个EmmyLua的插件,而后创建一个简单的lua文件,并且在运行时修改其配置:指定program和working directory的目录为刚才下载解压的LuaSEO靠我目录,这里就不对Lua脚本做过多介绍,可以在自行了解一下其基本语法等等

8.2、Openresty Nginx + Lua

openResty官网:http://openresty.org/cn/downSEO靠我load.html

tar -zxvf openresty-1.21.4.1.tar.gz ./configure --prefix=/usr/local/openresty # 编译失败报错 ./SEO靠我configure: error: the HTTP rewrite module requires the PCRE library. # 解决方案 yum -y install pcre-devSEO靠我el gmake gmake install cd /usr/local/openresty/nginx/sbin # 退出重启 ./nginx -s quit ./nginx -c /usr/locSEO靠我al/openresty/nginx/conf/nginx.conf # 查看端口88占用的进程 lsof -i:88 # 访问 http://192.168.60.128:88/

8.3、测试lua脚SEO靠我

8.3.1、hello world

在nginx的配置文件当中加入:并且创建conf/lua/hello.lua文件,文件内容与/lua路由的打印日志相同格式进行测试

location /lua {deSEO靠我fault_type text/html;content_by_lua ngx.say("<p>Hello, World!</p>");}location /luaout {default_type SEO靠我text/html;content_by_lua_file conf/lua/hello.lua;}

8.3.2、热部署

在上述测试当中,每当修改hello.lua文件,都需要重新加载nginx才能生效,SEO靠我这时我们可以通过热部署配置进行实时生效

# serve下配置lua_code_cache off;

8.3.3、Lua处理Http请求

这里是通过lua脚本对于http请求到nginx服务器进行解析操作

--SEO靠我 获取Nginx请求头信息 local headers = ngx.req.get_headers() ngx.say("Host : ", headers["Host"], "<br/>") ngxSEO靠我.say("user-agent : ", headers["user-agent"], "<br/>") ngx.say("user-agent : ", headers.user_agent, "SEO靠我<br/>")for k, v in pairs(headers) doif type(v) == "table" thenngx.say(k, " : ", table.concat(v, ",")SEO靠我, "<br/>")elsengx.say(k, " : ", v, "<br/>")end end -- 获取post请求参数 ngx.req.read_body() ngx.say("post aSEO靠我rgs begin", "<br/>") local post_args = ngx.req.get_post_args()for k, v in pairs(post_args) doif typeSEO靠我(v) == "table" thenngx.say(k, " : ", table.concat(v, ", "), "<br/>")elsengx.say(k, ": ", v, "<br/>")SEO靠我end end-- http协议版本 ngx.say("ngx.req.http_version : ", ngx.req.http_version(), "<br/>") --请求方法 ngx.saSEO靠我y("ngx.req.get_method : ", ngx.req.get_method(), "<br/>") --原始的请求头内容 ngx.say("ngx.req.raw_header : "SEO靠我, ngx.req.raw_header(), "<br/>") --body内容体 ngx.say("ngx.req.get_body_data() : ", ngx.req.get_body_daSEO靠我ta(), "<br/>")

8.4 OpenResty缓存

8.4.1、全局内存缓存

在nginx+lua当中可以使用lua_shared_dict 表示一个全局缓存,而后在lua脚本当中可以获取当前缓存SEO靠我进行操作,就相当于java当中的synchronize关键字修饰的方法一样,保持了全局缓存操作的一个原子性

# https下 serve外 lua_shared_dict shared_data 1m;SEO靠我 local shared_data = ngx.shared.shared_data local i = shared_data:get("i")if not i then i = 1shSEO靠我ared_data:set("i", i) ngx.say("lazy set i ", i, "<br/>") end i = shared_data:incr("i", 1) ngx.saSEO靠我y("i=", i, "<br/>")

8.4.2、lua-resty-lrucache

location /luaout {default_type text/html;# content_by_luaSEO靠我_file conf/lua/hello.lua;content_by_lua_block {require("cache").go();}}

cache.lua,此时该文件目录地址为:/usr/locSEO靠我al/openresty/nginx/conf/lua/cache.lua,代码如下

local _M = {}lrucache = require "resty.lrucache"c, err = lSEO靠我rucache.new(200) -- allow up to 200 items in the cache ngx.say("count=init")if not c thenerror("faiSEO靠我led to create the cache: " .. (err or "unknown")) endfunction _M.go() count = c:get("count") c:set("SEO靠我count",100) ngx.say("count=", count, " --<br/>")if not count thenc:set("count",1)ngx.say("lazy set cSEO靠我ount ", c:get("count"), "<br/>") else c:set("count",count+1) ngx.say("count=", count, "<br/>") endSEO靠我end return _M

此时直接访问location对应的路由会发现报错,因为此时还不知道对应的cache.lua文件去哪找,在报错日志当中可以看到会去一下目录下进行匹配,所以这个cache.luaSEO靠我文件就应该在这些文件下,

2023/03/05 09:14:20 [error] 105981#0: *1 lua entry thread aborted: runtime error: contenSEO靠我t_by_lua(nginx.conf:62):2: module my/cache not found:no field package.preload[my/cache]no file /usr/SEO靠我local/openresty/site/lualib/my/cache.ljbcno file /usr/local/openresty/site/lualib/my/cache/init.ljbcSEO靠我no file /usr/local/openresty/lualib/my/cache.ljbcno file /usr/local/openresty/lualib/my/cache/init.lSEO靠我jbcno file /usr/local/openresty/site/lualib/my/cache.luano file /usr/local/openresty/site/lualib/my/SEO靠我cache/init.luano file /usr/local/openresty/lualib/my/cache.luano file /usr/local/openresty/lualib/mySEO靠我/cache/init.luano file ./my/cache.luano file /usr/local/openresty/luajit/share/luajit-2.1.0-beta3/mySEO靠我/cache.luano file /usr/local/share/lua/5.1/my/cache.luano file /usr/local/share/lua/5.1/my/cache/iniSEO靠我t.luano file /usr/local/openresty/luajit/share/lua/5.1/my/cache.luano file /usr/local/openresty/luajSEO靠我it/share/lua/5.1/my/cache/init.luano file /usr/local/openresty/site/lualib/my/cache.sono file /usr/lSEO靠我ocal/openresty/lualib/my/cache.sono file ./my/cache.sono file /usr/local/lib/lua/5.1/my/cache.sono fSEO靠我ile /usr/local/openresty/luajit/lib/lua/5.1/my/cache.sono file /usr/local/lib/lua/5.1/loadall.so staSEO靠我ck traceback: coroutine 0:[C]: in function requirecontent_by_lua(nginx.conf:62):2: in main chunk, clSEO靠我ient: 192.168.60.1, server: localhost, request: "GET /luaout HTTP/1.1", host: "192.168.60.128:88"

当然,SEO靠我也可以进行文件目录的配置,设置将lua-resty-lrucache源树的路径添加到ngx_lua的lua模块搜索路径中,

# hhtp下 lua_package_path "/usr/local/opSEO靠我enresty/nginx/conf/lua/?.lua;;"; # 注释改配置(并且要开启缓存) # lua_code_cache off;

8.4.3、连接redis

先还是一样加上一个locatioSEO靠我n路由配置指向对应的lua脚本

location /redis {default_type text/html;content_by_lua_file conf/lua/redis.lua;}

在lua脚SEO靠我本当中,先连接了本地的redis,然后创建一个一个key为dog值为an animal 的键值对,最后打印输出

local redis = require "resty.redis" local redSEO靠我 = redis:new() red:set_timeouts(1000, 1000, 1000) -- 1 sec local ok, err = red:connect("127.0.0.1", SEO靠我6379) if not ok thenngx.say("failed to connect: ", err)returnend ok, err = red:set("dog", "an animalSEO靠我") if not ok thenngx.say("failed to set dog: ", err)returnend ngx.say("set result: ", ok) local res,SEO靠我 err = red:get("dog") if not res thenngx.say("failed to get dog: ", err)returnend if res == ngx.nullSEO靠我 thenngx.say("dog not found.")returnend ngx.say("dog: ", res)

8.4.4、连接MySQL

lua-resty-mysql:https://giSEO靠我thub.com/openresty/lua-resty-mysql

首先先通过ip连接上本地数据库,而后发送建表语句与查询语句,将查询返回的结果进行展示

local mysql = require "rSEO靠我esty.mysql" local db, err = mysql:new() if not db thenngx.say("failed to instantiate mysql: ", err)rSEO靠我eturn enddb:set_timeout(1000) -- 1 seclocal ok, err, errcode, sqlstate = db:connect{host = "192.168.SEO靠我60.128",port = 3306,database = "student",user = "root",password = "1234",charset = "utf8",max_packetSEO靠我_size = 1024 * 1024, }ngx.say("connected to mysql.<br>")local res, err, errcode, sqlstate = db:querySEO靠我("drop table if exists cats") if not res thenngx.say("bad result: ", err, ": ", errcode, ": ", sqlstSEO靠我ate, ".")return endres, err, errcode, sqlstate =db:query("create table cats ".. "(id serial primary SEO靠我key, ".. "name varchar(5))") if not res thenngx.say("bad result: ", err, ": ", errcode, ": ", sqlstaSEO靠我te, ".")return endngx.say("table cats created.")res, err, errcode, sqlstate =db:query("select * fromSEO靠我 t_emp") if not res thenngx.say("bad result: ", err, ": ", errcode, ": ", sqlstate, ".")return endloSEO靠我cal cjson = require "cjson" ngx.say("result: ", cjson.encode(res))local ok, err = db:set_keepalive(1SEO靠我0000, 100) if not ok thenngx.say("failed to set keepalive: ", err)return end

8.4.5、模板引擎

lua-resty-tempSEO靠我late:https://github.com/bungle/lua-resty-template

tar -zxvf lua-resty-template-2.0.tar.gz cd lua-resSEO靠我ty-template-2.0/lib/resty cp -r template /usr/local/openresty/lualib/resty/ cp template.lua /usr/locSEO靠我al/openresty/lualib/resty/

8.5、基于OpenResty的开源项目

Kong : https://konghq.com/

APISIX

ABTestingGateway:httpsSEO靠我://github.com/CNSRE/ABTestingGateway
“SEO靠我”的新闻页面文章、图片、音频、视频等稿件均为自媒体人、第三方机构发布或转载。如稿件涉及版权等问题,请与 我们联系删除或处理,客服邮箱:html5sh@163.com,稿件内容仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同 其观点或证实其内容的真实性。

网站备案号:浙ICP备17034767号-2