前言
nginx应对高并发
在现代互联网中,高并发流量是许多应用场景的常态,尤其在秒杀系统、直播平台,还是大型电商活动。
这些场景会带来巨大技术挑战,而nginx,是我们经常使用的利器,应对高并发流量。
一、架构
nginx不仅仅是一个 web 服务器,它是 现代互联网系统的流量总管,在高并发架构中扮演着至关重要的角色。
nginx 能够应对高并发流量,是由于底层有多项关键技术支撑:
事件驱动模型 + i/o 多路复用 + 异步非阻塞 i/o
1. 原生多进程架构
- 使用经典的 master-worker 进程模型,这种设计是其高性能、和高可用性的基石。
- 主进程负责管理,子进程负责处理请求;
master 进程的职责:主要负责读取、和解析配置文件,以及,管理 worker 进程的启动、关闭和重启…等等。
- 管理 worker 进程: master 进程负责启动、停止和重启 worker 进程,确保系统的稳定运行。
- 加载配置文件: 它负责读取和解析 nginx 的配置文件(nginx.conf),并将配置信息传递给 worker 进程。
worker 进程的职责:处理客户端的请求,比如: http 请求、tcp/udp …连接等等等。
- 处理客户端请求: worker 进程是实际处理客户端请求的进程。
- 执行网络 i/o 操作: 它负责接收和发送网络数据,处理 http 请求和响应。
- 每个 worker 进程都是独立的: 这意味着它们之间互不干扰,即使某个 worker 进程出现问题,也不会影响其他进程的运行。
- 通常,worker 进程的数量会配置为与服务器的 cpu 核心数相同、或两倍。多个 worker 进程可以并行处理请求,充分发挥多核 cpu 的性能。
- 单线程高效处理连接:每个 worker 进程都是单线程的,这避免了多线程上下文切换的开销,提高了性能。
2. 事件驱动模型
与传统的“一个连接一个线程/进程”模型不同,nginx 采用事件驱动模型。
事件驱动模型,提供的高性能,是 nginx 能够处理百万并发的核心。
- 1.epoll_wait 等待就绪事件(如连接/读/写)
- 2.就绪事件触发,执行对应回调 handler(如读取数据)
- 3.继续监听下一批事件
事件驱动模型的核心是:程序不再被动地等待任务、或按照固定的流程执行,而是主动地监听,并响应各种“事件”的发生。
比如:当一个事件发生时(如网络数据到达、定时器触发、用户操作…等),程序会执行预先注册好的回调函数来处理它。
nginx 并不“主动干活”,而是“事件来了才响应”,这大幅减少了空耗、与阻塞。
3. io多路复用
事件驱动模型的底层支撑,就是操作系统提供的 i/o 多路复用机制。
nginx 在 linux 下默认使用 epoll,性能极高。
epoll 是一种 i/o 多路复用技术,它允许一个线程同时监听多个文件描述符(例如,网络连接)。采用了“事件就绪通知”机制,当某个文件描述符上的事件就绪时(例如,数据可读),epoll 会通知线程,线程再进行处理。内核会主动,将其添加到 epoll 实例维护的一个就绪列表(ready list)中。
epoll 相比 select/poll,在大数量连接的情况下,性能会更好。不仅能支持百万连接,而且是“事件通知机制”,避免无效遍历。
所以,i/o 多路复用的价值,可以大幅提升并发能力。
4. 异步非阻塞 i/o
nginx 的所有 i/o 操作都是 异步非阻塞的,这意味着:当线程执行 i/o 操作时,不需要线程等待数据,所有 read/write 都立刻返回。线程可以继续执行其他任务,当 i/o 操作完成后,通过事件通知机制进行处理。
这样,可以确保 nginx 的 worker 进程,永远不会在 i/o 操作上被挂起。可以避免线程在等待io的时候,被阻塞,它总是忙于处理那些已经就绪的事件。
客户端连接 socket →注册读事件(非阻塞)→等数据到达 →数据到达触发事件→回调读取→注册写事件 →数据写回→关闭或保持连接(keepalive)
总之,异步非阻塞 i/o ,是与事件驱动模型、采用epoll的i/o 多路复用紧密结合,能够在一个线程中同时处理多个连接,高效地处理大量的并发连接,从而提高了系统的并发处理能力,这是nginx实现高性能的核心。
5. nginx高并发配置实战
启用多进程并发 + 高效事件模型
worker_processes auto; worker_cpu_affinity auto; events { # linux 平台推荐使用 epoll use epoll; worker_connections 10240; multi_accept on; }
- worker_processes auto :自动设置为 cpu 核心数,充分利用多核优势。
- use epoll :linux 下的高性能事件驱动模型。
- worker_connections :单个 worker 支持的最大连接数(理论并发 = workers × connections)。
- multi_accept on :允许 worker 一次接受多个连接,提高接入效率。
实战建议:在压力测试中逐步调整 worker_connections 以找到最佳吞吐点。
提升 tcp 连接效率(长连接+连接复用)
keepalive_timeout 65; keepalive_requests 1000; tcp_nodelay on; tcp_nopush on;
- keepalive_timeout :保持连接存活时间,减少频繁建立/释放的开销。
- keepalive_requests :单连接最大请求数,配合 upstream keepalive 使用。
- tcp_nodelay :加速小包传输,避免延迟。
- tcp_nopush :优化响应包发送,减少数据包数量。
开启缓存机制,减轻后端压力
proxy_cache_path /data/nginx/cache levels=1:2 keys_zone=static_cache:50m inactive=1h max_size=2g; server { location /static/ { proxy_cache static_cache; proxy_pass http://backend_servers; proxy_cache_valid 200 1h; proxy_cache_use_stale error timeout updating; } }
- proxy_cache_path :设置缓存路径、层级结构、大小上限;
- proxy_cache_valid :为不同状态码配置缓存时间;
- proxy_cache_use_stale :后端出问题时使用过期缓存兜底,提升系统容错。
设置限流防护,抵御突发流量冲击
limit_conn_zone $binary_remote_addr zone=addr_limit:10m; limit_conn addr_limit 20; limit_req_zone $binary_remote_addr zone=req_limit:10m rate=10r/s; limit_req zone=req_limit burst=20 nodelay;
- limit_conn :限制单 ip 最大连接数;
- limit_req :限制请求速率(如:每秒10次),防止恶意刷接口。
场景举例:
- 防止爬虫恶意抓取;
- 限制高频 api 调用;
- 缓解峰值时段突发请求。
优化文件传输性能:
sendfile on; aio on; output_buffers 1 512k;
- sendfile :启用零拷贝机制,减少磁盘 → 网络的数据搬运消耗;
- aio :启用异步文件 io,提升大文件传输效率。
启用 gzip 压缩减少带宽占用
gzip on; gzip_types text/plain application/json application/javascript text/css; gzip_comp_level 5;
- 适用于静态资源、json 接口响应等场景;
- 在带宽紧张时非常有效,但注意不要压缩已压缩格式(如 .zip, .jpg)。
二、动静分离
动静分离是一种优化应用性能、和可伸缩性的架构策略。
nginx动静分离,核心思想是将 web 应用中的动态资源、和静态资源分开部署和管理。
并通过 web 服务器(通常是 nginx)进行智能的请求分发,如下图所示:
1. 职责
在动静分离架构中,nginx 作为前置的 反向代理服务器 + 静态资源服务器,具有如下职责:
拦截静态资源请求,直接读取本地文件并响应(高性能、无 i/o 等待);
转发动态请求 到后端应用服务器(如 tomcat、php-fpm、node.js)处理业务逻辑。
通过动静分离,我们可以将不同类型的请求交给最擅长处理它们的服务器,从而提高整体的效率和可维护性。
对于静态资源请求,可以配置 nginx 直接从本地文件系统(nginx 服务器所在的磁盘),读取并返回给客户端。
也可以配置 nginx 将请求,反向代理到专门的静态资源服务器(例如另一台 nginx 服务器)、或内容分发网络 (cdn)。通常,对于大型高并发的 web 应用,结合使用 cdn 和专门的静态资源服务器是更优的选择。
对于动态资源请求,nginx 将请求反向代理到后端的动态应用服务器集群(例如运行 php-fpm、tomcat…等的服务器)。
2. 核心流程
- 收请求: nginx 接收用户请求;
- 分类型: nginx 根据 uri 判断是静态资源(如图片、css、js)还是动态请求(如 php 页面)。
导向处理:
- 静态资源,nginx 自己处理(读取本地文件)或转发给专门的静态资源服务器/cdn。
- 动态请求, nginx 转发给后端的应用服务器(如 tomcat。。。等等)。
3. 配置
配置样例
server { listen 80; server_name www.example.com; # 静态资源处理 location ~* \.(jpg|jpeg|png|gif|css|js|ico|html|woff|ttf)$ { root /var/www/static; expires 7d; } # 动态请求代理后端 location /{ proxy_pass http://127.0.0.1:8080; proxy_set_header host $host; proxy_set_header x-real-ip $remote_addr; } }
三、限流
nginx限流(rate limiting): 是指通过配置 nginx 来,限制客户端在一定时间内访问服务器的请求频率。
nginx 限流的核心目标:是控制客户端请求的速率或并发连接数,以保护服务器免受过载或恶意攻击。
比如:通过nginx限流,可以防止恶意攻击(如ddos攻击)、或意外流量激增导致服务器过载。
以及,控制流量,确保服务器在承受范围内稳定运行。
1. 限流原理
基于 令牌桶算法(token bucket) 实现的。
令牌桶算法是一种灵活且有效的限流算法,它允许一定程度的突发流量,同时又能平滑地限制请求速率。
工作原理,如下图所示:
2. 流程
令牌桶算法的核心思想:是维护一个固定容量的“令牌桶”。
系统以恒定的速率向令牌桶中放入令牌。
每个请求到来时,都需要从令牌桶中获取一个令牌才能被处理。
如果令牌桶中没有足够的令牌,则请求会被拒绝或等待。
令牌桶的容量限制了可以存储的令牌数量,多余的令牌会被丢弃。
总结
以上为个人经验,希望能给大家一个参考,也希望大家多多支持代码网。
发表评论