当前位置: 代码网 > it编程>前端脚本>Python > Python多进程与多线程适用场景案例分析

Python多进程与多线程适用场景案例分析

2026年01月08日 Python 我要评论
你想明确多进程和多线程各自的适用场景,核心是要结合任务类型、资源需求、数据共享等维度来判断——简单来说,io密集型任务优先用多线程,cpu密集型任务必须用多进程,下面拆解具体场

你想明确多进程和多线程各自的适用场景,核心是要结合任务类型、资源需求、数据共享等维度来判断——简单来说,io密集型任务优先用多线程,cpu密集型任务必须用多进程,下面拆解具体场景和选型逻辑,附实战案例帮你落地。

一、多线程(threading):主打“io密集型”场景

多线程的核心优势是“轻量、切换快、数据共享方便”,但受gil限制无法利用多核,因此只适合“等待时间远大于计算时间”的任务(io等待时线程释放gil,其他线程可执行)。

1. 核心适用场景(附案例)

(1)网络相关任务(最典型)

  • 爬虫(批量爬取网页、接口数据)、api调用、消息队列消费、网络监控;
  • 案例:多线程爬取10个网页(io等待占90%)
import threading
import time
import requests
def crawl(url):
    print(f"线程{threading.current_thread().name}:请求{url}")
    resp = requests.get(url)   网络io等待(释放gil)
    print(f"{url}:状态码{resp.status_code}")
if __name__ == "__main__":
    start = time.time()
    urls = [f"https://httpbin.org/get?num={i}" for i in range(10)]
    threads = [threading.thread(target=crawl, args=(url,)) for url in urls]
    [t.start() for t in threads]
    [t.join() for t in threads]
    print(f"总耗时:{time.time()-start:.2f}秒")   约2秒(并发),单线程约10秒

(2)文件/数据库io任务

  • 批量读写本地文件、数据库查询/插入(如mysql/redis操作)、日志采集;
  • 特点:这类任务大部分时间在“等磁盘/数据库响应”,线程切换开销可忽略;
  • 案例:多线程读取10个大文本文件
from concurrent.futures import threadpoolexecutor
import os
def read_file(filepath):
    with open(filepath, "r", encoding="utf-8") as f:
        content = f.read()
    return f"{filepath}:字符数{len(content)}"
if __name__ == "__main__":
    files = [f for f in os.listdir() if f.endswith(".txt")][:10]
    with threadpoolexecutor(max_workers=5) as executor:
        results = executor.map(read_file, files)
    for res in results:
        print(res)

(3)需频繁数据共享的轻量任务

  • 实时统计(如统计程序运行状态、实时计数)、gui程序后台任务(如界面刷新+数据加载);
  • 特点:线程共享进程内存,无需复杂通信,加锁即可保证数据安全;
  • 案例:多线程实时计数(共享变量)
import threading
import time
count = 0
lock = threading.lock()
def add_count():
    global count
    for _ in range(10000):
        with lock:   加锁避免数据竞争
            count += 1
if __name__ == "__main__":
    t1 = threading.thread(target=add_count)
    t2 = threading.thread(target=add_count)
    t1.start()
    t2.start()
    t1.join()
    t2.join()
    print(f"最终计数:{count}")   输出20000(准确)

2. 多线程避坑场景

  • ❌ 绝对不要用多线程处理cpu密集任务(如矩阵运算、数据加密):gil会让多线程变成“伪并发”,效率甚至低于单线程;
  • ❌ 不要创建过多线程(如上千个):线程切换开销累积,会导致程序卡顿。

二、多进程(multiprocessing):主打“cpu密集型”场景

多进程的核心优势是“突破gil限制、利用多核cpu、进程隔离更稳定”,但启动/通信开销大,适合“计算时间占主导”的任务。

1. 核心适用场景(附案例)

(1)数据计算类任务(最典型)

  • 矩阵运算、数值模拟、数据挖掘(如批量特征计算)、密码破解、ai模型训练(单机多进程);
  • 案例:多进程计算10个大矩阵的乘法
from concurrent.futures import processpoolexecutor
import time
import numpy as np
def matrix_calc(matrix):
    return np.dot(matrix, matrix)   纯cpu计算
if __name__ == "__main__":
    start = time.time()
    matrices = [np.random.rand(1000, 1000) for _ in range(10)]
    with processpoolexecutor() as executor:
        executor.map(matrix_calc, matrices)
    print(f"总耗时:{time.time()-start:.2f}秒")   4核cpu约3秒,单进程约10秒

(2)批量独立任务处理

  • 图片/视频处理(如批量压缩图片、视频转码)、文件格式转换(如csv转excel)、批量数据分析;
  • 特点:任务间无依赖、可独立执行,进程隔离避免一个任务崩溃影响全局;
  • 案例:多进程批量压缩图片
import multiprocessing
from pil import image
import os
def compress_img(filepath):
    img = image.open(filepath)
    img.save(f"compressed_{filepath}", quality=50)   压缩图片(cpu密集)
    return f"{filepath}压缩完成"
if __name__ == "__main__":
    imgs = [f for f in os.listdir() if f.endswith((".jpg", ".png"))][:5]
    pool = multiprocessing.pool(processes=4)
    results = pool.map(compress_img, imgs)
    pool.close()
    pool.join()
    for res in results:
        print(res)

(3)高稳定性要求的任务

  • 批量执行第三方脚本/工具、不稳定的任务(如调用易崩溃的接口);
  • 特点:单个进程崩溃不会导致整个程序挂掉,容错性更高。

2. 多进程避坑场景

  • ❌ 不要用多进程处理高频小任务(如每秒执行一次的定时检测):进程启动/通信开销会抵消并行优势;
  • ❌ 不要用多进程处理需频繁数据共享的任务:进程间通信(queue/pipe)开销大,效率远低于线程。

三、选型速查表(新手直接套用)

任务特征优先选择核心原因
cpu密集(计算为主)多进程突破gil,利用多核并行计算
io密集(等待为主)多线程轻量并发,io等待时释放gil
需频繁共享数据多线程共享内存,通信成本低
任务独立、无数据共享多进程进程隔离,稳定性高
任务数量多、启动频繁多线程线程启动快,切换开销低
单个任务易崩溃多进程进程隔离,不影响其他任务
单机最大化算力多进程充分利用多核cpu

四、特殊场景:混合使用(线程+进程)

如果任务是“io+cpu混合”(如爬取数据后立即计算),可结合二者优势:

示例:多进程(处理cpu计算)+ 多线程(处理io爬取)

from concurrent.futures import processpoolexecutor, threadpoolexecutor
import requests
import numpy as np
 线程:爬取数据(io)
def crawl_data(url):
    resp = requests.get(url)
    return resp.json()["data"]
 进程:处理数据(cpu)
def process_data(data_list):
    arr = np.array(data_list)
    return arr.mean()   数值计算
if __name__ == "__main__":
     1. 多线程爬取数据
    urls = [f"https://httpbin.org/get?data={i}" for i in range(10)]
    with threadpoolexecutor(max_workers=5) as t_executor:
        data = list(t_executor.map(crawl_data, urls))
     2. 多进程处理数据
    with processpoolexecutor() as p_executor:
        result = p_executor.submit(process_data, data).result()
    print(f"数据均值:{result}")

到此这篇关于python多进程与多线程适用场景案例分析的文章就介绍到这了,更多相关python多进程与多线程内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2026  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com