OpenResty&Nginx限流配置

tech2023-08-21  85

文章目录

nginx速率限流控制作用nginx具体配置实现处理突发流量 nginx并发量(连接数)控制描述

nginx速率限流控制

作用

速率限流可以显示一个接口在1s内的访问频率,提高服务器的可用行,同时限流是解决雪崩的有效手段

控制速率的方式之一就是采用漏桶算法。

漏桶(Leaky Bucket)算法思路很简单,水(请求)先进入到漏桶里,漏桶以一定的速度出水(接口有响应速率),当水流入速度过大会直接溢出(访问频率超过接口响应速率),然后就拒绝请求,可以看出漏桶算法能强行限制数据的传输速率.示意图如下:

nginx具体配置实现

配置示意图如下:

user root root; worker_processes 1; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; # 指定lua脚本缓存控件的大小,128MB lua_shared_dict dis_cache 128m; # 限流设置 limit_req_zone $binary_remote_addr zone=contentRateLimit:10m rate=2r/s; sendfile on; keepalive_timeout 65; server { listen 80; server_name localhost; location /read_content { # 使用上面的限流配置 limit_req zone=contentRateLimit; content_by_lua_file /root/lua/cache/read_content.lua; } } }

配置说明

binary_remote_addr --> 是一种key,表示基于 remote_addr(客户端IP) 来做限流,binary_ :压缩内存占用量。 zone --> 定义共享内存区来存储访问信息。 contentRateLimit:10m --> 表示一个大小为10M,名字为contentRateLimit的内存区域(漏桶)。1M能存储16000 IP地址的访问信息,10M可以存储16W IP地址访问信息。 rate --> 用于设置最大访问速率,rate=10r/s 表示每秒最多处理10个请求。Nginx 实际上以毫秒为粒度来跟踪请求信息,因此 10r/s 实际上是限制:每100毫秒处理一个请求。这意味着,自上一个请求处理完后,若后续100毫秒内又有请求到达,将拒绝处理该请求。

测试:

重新加载配置文件

./nginx -s reload

连续刷新会直接拒绝访问。

处理突发流量

上面例子限制 2r/s,如果有时正常流量突然增大,超出的请求将被拒绝,无法处理突发流量,可以结合 burst 参数使用来解决该问题。

例如,如下配置表示:

上图代码如下:

server { listen 80; server_name localhost; location /read_content { limit_req zone=contentRateLimit burst=4; content_by_lua_file /root/lua/cache/read_content.lua; } }

burst :表示在超过设定的处理速率后能额外处理的请求数,当 rate=10r/s 时,将1s拆成10份,即每100ms可处理1个请求。

此处,**burst=4 **,若同时有4个请求到达,Nginx会先处理第一个请求,剩余3个请求将放入队列,然后每隔500ms从队列中获取一个请求进行处理。若请求数大于4,将拒绝处理多余的请求,直接返回503.

单独使用 burst 参数并不实用。假设 burst=50,rate依然为10r/s,排队中的50个请求虽然每100ms会处理一个,但第50个请求却需要等待 50 * 100ms即 5s,这么长的处理时间自然难以接受。

因此,burst 往往结合 nodelay 一起使用。

例如:如下配置:

server { listen 80; server_name localhost; location /read_content { limit_req zone=contentRateLimit burst=4 nodelay; content_by_lua_file /root/lua/cache/read_content.lua; } }

nodelay:可以并发执行请求,默认是一个一个的处理的。

如上表示:

平均每秒允许不超过2个请求,突发不超过5个请求,并且处理突发4个请求的时候,没有延迟,等到完成之后,按照正常的速率处理。

如上两种配置结合就达到了速率稳定,但突然流量也能正常处理的效果。完整配置代码如下:

user root root; worker_processes 1; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; #cache lua_shared_dict dis_cache 128m; #限流设置 limit_req_zone $binary_remote_addr zone=contentRateLimit:10m rate=2r/s; sendfile on; keepalive_timeout 65; server { listen 80; server_name localhost; location /read_content { limit_req zone=contentRateLimit burst=4 nodelay; content_by_lua_file /root/lua/cache/read_content.lua; } } }

nginx并发量(连接数)控制

描述

控制一个Ip可以同时与服务器建立多少连接控制服务器总的连接数

可以很好的解决恶意访问网站

配置示意图如下:

配置信息如下:

user root root; worker_processes 1; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; # 指定lua脚本缓存控件的大小,128MB lua_shared_dict dis_cache 128m; # 表示限制根据用户的IP地址来显示,设置存储地址的内存大小10M limit_conn_zone $binary_remote_addr zone=perip:10m; # 设置总的存储地址内存大小为10M limit_conn_zone $server_name zone=perserver:10m; sendfile on; keepalive_timeout 65; server { listen 80; server_name localhost; location /test { limit_conn perip 2; # 单个客户端ip与服务器的连接数. limit_conn perserver 100; # 限制服务器总连接数 content_by_lua_file /root/lua/cache/test.lua; } } }

配置文件说明如下:

limit_conn_zone $binary_remote_addr zone=addr:10m; --> 表示限制根据用户的IP地址来显示,设置存储地址为的内存大小10M limit_conn_zone $server_name zone=perserver:10m; --> 设置总的存储地址内存大小为10M limit_conn addr 2; --> 表示 同一个地址只允许存在两个连接。 limit_conn perserver 100; --> 限制服务器总连接数。
最新回复(0)