🔍 实测场景 + 通俗解读
场景 A:轻度并发(10 个并发,总计 1,000 请求)
ab -n 1000 -c 10 -k http://localhost:8080/
Requests per second: 53.46
Time per request: 187 ms
- QPS(请求频率)约 50,即服务器每秒可响应 50 次点击;
- 平均响应时间约 0.19 秒,用户等待不到两分之一秒即可完成访问;
- 通俗说法:10 人同时访问,浏览体验流畅,网页迅速打开。
场景 B:中度并发(50 个并发,总计 5,000 请求)
ab -n 5000 -c 50 -k http://localhost:8080/
测试中断,约完成 4,208 次后超时
- 压测因超时被迫停止,未完成 5,000 次请求;
- 说明在 5050 并发下,系统已达瓶颈,处理能力不足;
- 通俗说法:当同时有 50 人访问,服务器开始响应缓慢甚至崩溃。
💡 QPS、Concurrency(并发)解释
- Concurrency(并发):指同时发起访问的人数,例如 10 并发=10 人同时点击;
- QPS(请求频率):指每秒钟服务器处理完多少次点击。例如你测试下的 10 并发场景里,达到了 53 QPS,也就是每秒处理 53 个独立请求 [turn0search2][turn0search8]。
✅ 你的系统能支撑的“极限”是什么?
并发数 | QPS( Requests/s ) | 平均 响应 时间 |
---|
10 并发 | 50–60 | ~0.17–0.2 s |
20–30 并发 | ~30 | ~0.2–0.3 s |
50 并发 | 不稳定,出现超时 | — |
- 轻度并发(10 人同时访问):表现优良,页面打开迅速;
- 中度并发(20–30 人):虽慢一些,但体验仍稳定;
- 高并发(50 人):系统不稳定,可能会卡或返回超时错误。