当前位置: 代码网 > it编程>前端脚本>Python > Web服务器-Nginx-高并发问题

Web服务器-Nginx-高并发问题

2025年08月20日 Python 我要评论
前言nginx应对高并发‌在现代互联网中,高并发流量是许多应用场景的常态,尤其在秒杀系统、直播平台,还是大型电商活动。这些场景会带来巨大技术挑战,而nginx,是我们经常使用的利器,应对高并

前言

nginx应对高并发‌

在现代互联网中,高并发流量是许多应用场景的常态,尤其在秒杀系统、直播平台,还是大型电商活动。

这些场景会带来巨大技术挑战,而nginx,是我们经常使用的利器,应对高并发流量。

一、架构

nginx不仅仅是一个 web 服务器,它是 现代互联网系统的流量总管,在高并发架构中扮演着至关重要的角色。

nginx 能够应对高并发流量,是由于底层有多项关键技术支撑:

事件驱动模型 + i/o 多路复用 + 异步非阻塞 i/o

1. 原生多进程架构

  1. 使用经典的 master-worker 进程模型,这种设计是其高性能、和高可用性的基石。

  1. 主进程负责管理,子进程负责处理请求;

master 进程的职责:主要负责读取、和解析配置文件,以及,管理 worker 进程的启动、关闭和重启…等等。

  • 管理 worker 进程: master 进程负责启动、停止和重启 worker 进程,确保系统的稳定运行。
  • 加载配置文件: 它负责读取和解析 nginx 的配置文件(nginx.conf),并将配置信息传递给 worker 进程。

worker 进程的职责:处理客户端的请求,比如: http 请求、tcp/udp …连接等等等。

  • 处理客户端请求: worker 进程是实际处理客户端请求的进程。
  • 执行网络 i/o 操作: 它负责接收和发送网络数据,处理 http 请求和响应。
  • 每个 worker 进程都是独立的: 这意味着它们之间互不干扰,即使某个 worker 进程出现问题,也不会影响其他进程的运行。
  • 通常,worker 进程的数量会配置为与服务器的 cpu 核心数相同、或两倍。多个 worker 进程可以并行处理请求,充分发挥多核 cpu 的性能。
  • 单线程高效处理连接:每个 worker 进程都是单线程的,这避免了多线程上下文切换的开销,提高了性能。

2. 事件驱动模型

与传统的“一个连接一个线程/进程”模型不同,nginx 采用事件驱动模型。

事件驱动模型,提供的高性能,是 nginx 能够处理百万并发的核心。

  • 1.epoll_wait 等待就绪事件(如连接/读/写)
  • 2.就绪事件触发,执行对应回调 handler(如读取数据)
  • 3.继续监听下一批事件

事件驱动模型的核心是:程序不再被动地等待任务、或按照固定的流程执行,而是主动地监听,并响应各种“事件”的发生

比如:当一个事件发生时(如网络数据到达、定时器触发、用户操作…等),程序会执行预先注册好的回调函数来处理它。

nginx 并不“主动干活”,而是“事件来了才响应”,这大幅减少了空耗、与阻塞

3. io多路复用

事件驱动模型的底层支撑,就是操作系统提供的 i/o 多路复用机制。

nginx 在 linux 下默认使用 epoll,性能极高。

epoll 是一种 i/o 多路复用技术,它允许一个线程同时监听多个文件描述符(例如,网络连接)。采用了“事件就绪通知”机制,当某个文件描述符上的事件就绪时(例如,数据可读),epoll 会通知线程,线程再进行处理。内核会主动,将其添加到 epoll 实例维护的一个就绪列表(ready list)中。

epoll 相比 select/poll,在大数量连接的情况下,性能会更好。不仅能支持百万连接,而且是“事件通知机制”,避免无效遍历。

所以,i/o 多路复用的价值,可以大幅提升并发能力

4. 异步非阻塞 i/o

nginx 的所有 i/o 操作都是 异步非阻塞的,这意味着:当线程执行 i/o 操作时,不需要线程等待数据,所有 read/write 都立刻返回。线程可以继续执行其他任务,当 i/o 操作完成后,通过事件通知机制进行处理

这样,可以确保 nginx 的 worker 进程,永远不会在 i/o 操作上被挂起。可以避免线程在等待io的时候,被阻塞,它总是忙于处理那些已经就绪的事件。

    客户端连接 socket →注册读事件(非阻塞)→等数据到达
    →数据到达触发事件→回调读取→注册写事件
    →数据写回→关闭或保持连接(keepalive)

总之,异步非阻塞 i/o ,是与事件驱动模型、采用epoll的i/o 多路复用紧密结合,能够在一个线程中同时处理多个连接,高效地处理大量的并发连接,从而提高了系统的并发处理能力,这是nginx实现高性能的核心。

5. nginx高并发配置实战

启用多进程并发 + 高效事件模型

worker_processes auto; 
worker_cpu_affinity auto;
events {
# linux 平台推荐使用 epoll
 use epoll; 
 worker_connections 10240;
 multi_accept on; 
}
  • worker_processes auto :自动设置为 cpu 核心数,充分利用多核优势。
  • use epoll :linux 下的高性能事件驱动模型。
  • worker_connections :单个 worker 支持的最大连接数(理论并发 = workers × connections)。
  • multi_accept on :允许 worker 一次接受多个连接,提高接入效率。

实战建议:在压力测试中逐步调整 worker_connections 以找到最佳吞吐点。

提升 tcp 连接效率(长连接+连接复用)

keepalive_timeout 65; 
keepalive_requests 1000; 
tcp_nodelay on; 
tcp_nopush on;
  • keepalive_timeout :保持连接存活时间,减少频繁建立/释放的开销。
  • keepalive_requests :单连接最大请求数,配合 upstream keepalive 使用。
  • tcp_nodelay :加速小包传输,避免延迟。
  • tcp_nopush :优化响应包发送,减少数据包数量。

开启缓存机制,减轻后端压力

proxy_cache_path /data/nginx/cache levels=1:2 keys_zone=static_cache:50m inactive=1h max_size=2g;
server {
	location /static/	
	{ 
 		proxy_cache static_cache; 
 		proxy_pass http://backend_servers; 
 		proxy_cache_valid 200 1h; 
 		proxy_cache_use_stale error timeout updating; 
 	} 
}
  • proxy_cache_path :设置缓存路径、层级结构、大小上限;
  • proxy_cache_valid :为不同状态码配置缓存时间;
  • proxy_cache_use_stale :后端出问题时使用过期缓存兜底,提升系统容错。

设置限流防护,抵御突发流量冲击

limit_conn_zone $binary_remote_addr zone=addr_limit:10m;
limit_conn addr_limit 20;
limit_req_zone $binary_remote_addr zone=req_limit:10m rate=10r/s; limit_req zone=req_limit burst=20 nodelay;
  • limit_conn :限制单 ip 最大连接数;
  • limit_req :限制请求速率(如:每秒10次),防止恶意刷接口。

场景举例:

  • 防止爬虫恶意抓取;
  • 限制高频 api 调用;
  • 缓解峰值时段突发请求。

优化文件传输性能:

sendfile on; 
aio on; 
output_buffers 1 512k;
  • sendfile :启用零拷贝机制,减少磁盘 → 网络的数据搬运消耗;
  • aio :启用异步文件 io,提升大文件传输效率。

启用 gzip 压缩减少带宽占用

gzip on; 
gzip_types text/plain application/json application/javascript text/css; 
gzip_comp_level 5;
  • 适用于静态资源、json 接口响应等场景;
  • 在带宽紧张时非常有效,但注意不要压缩已压缩格式(如 .zip, .jpg)。

二、动静分离

动静分离是一种优化应用性能、和可伸缩性的架构策略。

nginx动静分离,核心思想是将 web 应用中的动态资源、和静态资源分开部署和管理。

并通过 web 服务器(通常是 nginx)进行智能的请求分发,如下图所示:

1. 职责

在动静分离架构中,nginx 作为前置的 反向代理服务器 + 静态资源服务器,具有如下职责:

拦截静态资源请求,直接读取本地文件并响应(高性能、无 i/o 等待);

转发动态请求 到后端应用服务器(如 tomcat、php-fpm、node.js)处理业务逻辑。

通过动静分离,我们可以将不同类型的请求交给最擅长处理它们的服务器,从而提高整体的效率和可维护性。

对于静态资源请求,可以配置 nginx 直接从本地文件系统(nginx 服务器所在的磁盘),读取并返回给客户端。

也可以配置 nginx 将请求,反向代理到专门的静态资源服务器(例如另一台 nginx 服务器)、或内容分发网络 (cdn)。通常,对于大型高并发的 web 应用,结合使用 cdn 和专门的静态资源服务器是更优的选择。

对于动态资源请求,nginx 将请求反向代理到后端的动态应用服务器集群(例如运行 php-fpm、tomcat…等的服务器)。

2. 核心流程

  1. 收请求: nginx 接收用户请求;
  2. 分类型: nginx 根据 uri 判断是静态资源(如图片、css、js)还是动态请求(如 php 页面)。

导向处理:

  • 静态资源,nginx 自己处理(读取本地文件)或转发给专门的静态资源服务器/cdn。
  • 动态请求, nginx 转发给后端的应用服务器(如 tomcat。。。等等)。

3. 配置

配置样例

    server {
        listen 80;
        server_name www.example.com;
     
    	# 静态资源处理
        location ~* \.(jpg|jpeg|png|gif|css|js|ico|html|woff|ttf)$ {
            root /var/www/static;
            expires 7d;
    	}
     
    	# 动态请求代理后端
        location /{
            proxy_pass http://127.0.0.1:8080;
            proxy_set_header host $host;
            proxy_set_header x-real-ip $remote_addr;
    	}
    }

三、限流

nginx限流(rate limiting): 是指通过配置 nginx 来,限制客户端在一定时间内访问服务器的请求频率。

nginx 限流的核心目标:是控制客户端请求的速率或并发连接数,以保护服务器免受过载或恶意攻击。

比如:通过nginx限流,可以防止恶意攻击(如ddos攻击)、或意外流量激增导致服务器过载。

以及,控制流量,确保服务器在承受范围内稳定运行。

1. 限流原理

基于 令牌桶算法(token bucket) 实现的。

令牌桶算法是一种灵活且有效的限流算法,它允许一定程度的突发流量,同时又能平滑地限制请求速率。

工作原理,如下图所示:

2. 流程

令牌桶算法的核心思想:是维护一个固定容量的“令牌桶”。

系统以恒定的速率向令牌桶中放入令牌。

每个请求到来时,都需要从令牌桶中获取一个令牌才能被处理。

如果令牌桶中没有足够的令牌,则请求会被拒绝或等待。

令牌桶的容量限制了可以存储的令牌数量,多余的令牌会被丢弃。

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持代码网。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com