PostgreSQL OLTP高并发请求性能优化

在多核系统中,一般TPS会随并发数的增加而提升,但是当并发数超过一定的数值(如CPU核数的2到3倍以后),性能开始下降,并发数越高,下降越严重。
例子:
更新500万记录表中的1条随机记录。开8000个并发。
create table test_8000 (id int primary key, cnt int default 0);
insert into test_8000 select generate_series(1,5000000);

vi t.sql
\setrandom id 1 5000000
update test_8000 set cnt=cnt+1 where id=:id;
update test_8000 set cnt=cnt+2 where id=:id;
每次加载80个并发,循环100次,一共加载8000个并发。
vi test.sh
#!/bin/bash
for ((i=0;i<100;i++))
do

sleep 1;
pgbench -M simple -n -r -f ./t.sql -c 80 -j 80 -T 100000 -U postgres &

done
开始
. ./test.sh
当连接数达到8000后,观察TPS,我们可以使用PG的统计信息表来计算QPS。
postgres=# select count(*) from pg_stat_activity;
 count
-------
  8002
(1 row)

postgres=# select timestamptz '2015-10-08 17:01:24.203089+08' - timestamptz '2015-10-08 17:01:16.574076+08';
    ?column?
-----------------
 00:00:07.629013
(1 row)

postgres=# select 43819090-43749480;
 ?column?
----------
    69610
(1 row)

postgres=# select 69610/07.629013;
       ?column?
-----------------------
 9124.3782124896103860
(1 row)
8000个并发的时候,更新TPS约9124。大部分时间可能浪费在CPU调度上了。

另一种场景,
如果有8000个并发是空闲连接,只有10个在执行更新,性能是这样的:
先制造8000个空闲连接:
vi test.sql
select pg_sleep(100000);

vi test.sh
#!/bin/bash
for ((i=0;i<100;i++))
do

sleep 1;
pgbench -M simple -n -r -f ./test.sql -c 80 -j 80 -T 100000 -U postgres &

done

. ./test.sh

postgres=# select count(*) from pg_stat_activity;
 count
-------
  8002
(1 row)
然后开启10个连接执行更新操作。
pgbench -M prepared -n -r -f ./t.sql -P 1 -c 10 -j 10 -T 1000 -U postgres postgres
progress: 1.0 s, 29429.2 tps, lat 0.336 ms stddev 0.109
progress: 2.0 s, 28961.1 tps, lat 0.343 ms stddev 0.114
progress: 3.0 s, 30433.8 tps, lat 0.326 ms stddev 0.103
progress: 4.0 s, 29597.1 tps, lat 0.336 ms stddev 0.114
progress: 5.0 s, 28714.1 tps, lat 0.346 ms stddev 0.117
progress: 6.0 s, 28319.0 tps, lat 0.351 ms stddev 0.121
progress: 7.0 s, 28540.0 tps, lat 0.348 ms stddev 0.118
progress: 8.0 s, 29408.9 tps, lat 0.338 ms stddev 0.111
progress: 9.0 s, 29178.1 tps, lat 0.340 ms stddev 0.119
progress: 10.0 s, 29146.9 tps, lat 0.341 ms stddev 0.118
progress: 11.0 s, 27498.5 tps, lat 0.361 ms stddev 0.123
这种方法的性能约6万 qps。

优化思路:
排队处理用户请求。类似pgbouncer或Oracle的shared server机制,真实处理请求的进程数有限。

使用PostgreSQL的advisory函数可以模拟这种排队机制:
create or replace function upd(l int,v_id int) returns void as $$
declare
begin
  LOOP
    if pg_try_advisory_xact_lock(l) then  -- 只有获得这个应用级锁才执行更新,否则就等待。
      update test_8000 set cnt=cnt+1 where id=v_id;
      update test_8000 set cnt=cnt+2 where id=v_id;
      return;
    else
      perform pg_sleep(30*random());  --  随机等待时间
    end if;
  END LOOP;
end;
$$ language plpgsql strict;

增加一个随机变量l,用来表示应用所的号码,也就是说模拟10个同时在更新的操作,其他的都在等待。
这个是没有经过优化的排队机制,因为不是独立的进程处理用户请求,依旧是backend process在处理用户请求,依旧有8000个进程。
vi t.sql
\setrandom id 1 5000000
\setrandom l 1 10
select upd(:l, :id);

vi test.sh
#!/bin/bash
for ((i=0;i<100;i++))
do

sleep 1;
pgbench -M simple -n -r -f ./t.sql -c 80 -j 80 -T 100000 -U postgres &

done

. ./test.sh
测试结果比较理想,已经提升了1倍性能。
postgres=# select now(),n_tup_upd+n_tup_hot_upd from pg_stat_all_tables where relname='test_8000';
              now              | ?column?
-------------------------------+-----------
 2015-10-08 19:06:37.951332+08 | 221045069
(1 row)

postgres=# select now(),n_tup_upd+n_tup_hot_upd from pg_stat_all_tables where relname='test_8000';
             now              | ?column?
------------------------------+-----------
 2015-10-08 19:07:46.46325+08 | 222879057
(1 row)

postgres=# select timestamptz '2015-10-08 19:07:46.46325+08' - timestamptz '2015-10-08 19:06:37.951332+08';
    ?column?
-----------------
 00:01:08.511918
(1 row)

postgres=# select 222879057-221045069;
 ?column?
----------
  1833988
(1 row)

postgres=# select 1833988/68.5;
      ?column?
--------------------
 26773.547445255474
(1 row)
模拟结果,相比不排队,有1倍以上的性能提升。
TOP
top - 19:09:37 up 119 days,  3:59,  2 users,  load average: 0.96, 0.98, 1.01
Tasks: 8872 total,   5 running, 8866 sleeping,   1 stopped,   0 zombie
Cpu(s):  5.3%us,  0.8%sy,  0.0%ni, 93.9%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:  132124976k total, 118066688k used, 14058288k free,   316752k buffers
Swap:  2097144k total,      148k used,  2096996k free, 63702028k cached

advisory lock是PG提供的一种轻量级的面向用户的锁(当然比LWLOCK是要重的),我之前在秒杀场景的优化中也有叙述,可以达到每秒处理19万次的单条记录更新请求的性能,并且保持1毫秒以内的RT。请参考。
http://blog.163.com/digoal@126/blog/static/16387704020158149538415/

把这种优化思路加入到PostgreSQL的内核中是比较靠谱的,最终实现的效果会和Oracle的shared server非常类似。
阿里云PG内核组的小鲜肉和老腊肉们,优化开始搞起吧。
在没有优化前,还是使用pgbouncer这种连接池吧。

[参考]
1. http://blog.163.com/digoal@126/blog/static/16387704020158149538415/
时间: 2024-10-07 09:11:50

PostgreSQL OLTP高并发请求性能优化的相关文章

springmvc 高并发-SpringMVC基于app后端服务考虑高并发请求如何处理

问题描述 SpringMVC基于app后端服务考虑高并发请求如何处理 要求一个请求并发能处理20000次/S,数据以JSON格式响应给客户端 解决方案 http://www.iteye.com/problems/101314

HTAP数据库 PostgreSQL 场景与性能测试之 29 - (OLTP) 高并发空间位置更新(含空间索引)

标签 PostgreSQL , HTAP , OLTP , OLAP , 场景与性能测试 背景 PostgreSQL是一个历史悠久的数据库,历史可以追溯到1973年,最早由2014计算机图灵奖得主,关系数据库的鼻祖Michael_Stonebraker 操刀设计,PostgreSQL具备与Oracle类似的功能.性能.架构以及稳定性. PostgreSQL社区的贡献者众多,来自全球各个行业,历经数年,PostgreSQL 每年发布一个大版本,以持久的生命力和稳定性著称. 2017年10月,Pos

大数据量高并发的数据库优化详解_MsSql

如果不能设计一个合理的数据库模型,不仅会增加客户端和服务器段程序的编程和维护的难度,而且将会影响系统实际运行的性能.所以,在一个系统开始实施之前,完备的数据库模型的设计是必须的. 一.数据库结构的设计 在一个系统分析.设计阶段,因为数据量较小,负荷较低.我们往往只注意到功能的实现,而很难注意到性能的薄弱之处,等到系统投入实际运行一段时间后,才发现系统的性能在降低,这时再来考虑提高系统性能则要花费更多的人力物力,而整个系统也不可避免的形成了一个打补丁工程. 所以在考虑整个系统的流程的时候,我们必须

大数据量高并发的数据库优化详解

如果不能设计一个合理的数据库模型,不仅会增加客户端和服务器段程序的编程和维护的难度,而且将会影响系统实际运行的性能.所以,在一个系统开始实施之前,完备的数据库模型的设计是必须的. 一.数据库结构的设计 在一个系统分析.设计阶段,因为数据量较小,负荷较低.我们往往只注意到功能的实现,而很难注意到性能的薄弱之处,等到系统投入实际运行一段时间后,才发现系统的性能在降低,这时再来考虑提高系统性能则要花费更多的人力物力,而整个系统也不可避免的形成了一个打补丁工程. 所以在考虑整个系统的流程的时候,我们必须

谈谈大型高并发高负载网站的系统架构

http://blog.csdn.net/fenglibing/archive/2010/04/10/5469788.aspx   转自:http://www.educity.cn/rk/sa/200906031701101214.htm     我在CERNET做过拨号接入平台的搭建,而后在Yahoo&3721从事过搜索引擎前端开发,又在MOP处理过大型社区猫扑大杂烩的架构升级等工作,同时自己接触和开发过不少大中型网站的模块,因此在大型网站应对高负载和并发的解决方案上有一些积累和经验,可以和大

表格存储的Java SDK性能优化经验

原文发布于阿里云论坛,在圈子内重发. 问题背景 用户通过Java SDK来访问表格存储,在SDK内部也是有开销的,在高并发的场景下这些开销尤其突出.如果SDK的性能很差,用户为了达到更高的QPS,可能就需要使用更高性能的机器或者更多的机器,从而增加用户使用表格存储的成本.我们对SDK进行性能分析,也发现了很多性能问题,可以说原来的SDK有很大的性能优化空间.在发现SDK性能不高之后,我们进行了一系列优化,其中最重要的改动是,使用HttpAsyncClient库替换了HttpClient,从而把同

电商那些年,我摸爬打滚出的高并发架构实战精髓

一.关于高并发   高并发是指在同一个时间点,有很多用户同时访问URL地址,比如:淘宝的双11.双12,就会产生高并发.又如贴吧的爆吧,就是恶意的高并发请求,也就是DDOS攻击,再屌丝点的说法就像玩LOL被ADC暴击了一样,那伤害你懂的.   1 高并发会来带的后果  服务端:导致站点服务器/DB服务器资源被占满崩溃,数据的存储和更新结果和理想的设计是不一样的,比如:出现重复的数据记录,多次添加了用户积分等. 用户角度:尼玛,这么卡,老子来参加活动的,刷新了还是这样,垃圾网站,再也不来了! 我的

高性能高并发服务的瓶颈及突破思路

关于高性能高并发服务这个概念大家应该也都比较熟悉了,今天我主要是想讲一下对于如何做一个高性能高并发服务架构的一些自己的思考. 本次分享主要包括三个部分: 1. 服务的瓶颈有哪些 2. 如何提升整体服务的性能及并发 3. 如何提升单机服务的性能及并发 一.服务的瓶颈有哪些 通常来说程序的定义是算法+数据结构+数据,算法简单的理解就是一种计算方式,数据结构顾名思义是一种存储组织数据的结构,这两者体现了程序需要用到的计算机资源涉及到CPU资源.内存资源,而数据部分除了内存资源,往往还可能涉及到硬盘资源

说说大型高并发高负载网站的系统架构

我在Cernet做过拨号接入平台的搭建,而后在Yahoo3721负载搜索引擎前端平台开发,又在猫扑处理过大型社区猫扑大杂烩的架构升级等工作,同时自己接触和开发过不少大中型网站的模块,因此在大型网站应对高负载和并发的解决方案上有一些积累和经验,可以和大家一起探讨一下. 一个小型的网站,比如个人网站,可以使用最简单的html静态页面就实现了,配合一些图片达到美化效果,所有的页面均存放在一个目录下,这样的网站对系统架构.性能的要求都很简单,随着互联网业务的不断丰富,网站相关的技术经过这些年的发展,已经