PostgreSQL支持100万个连接测试详解

背景
100万个数据库连接,绝逼疯了,常人怎么会干这种事情。

没错,数据库支持100万个连接意味着什么呢?不能用连接池吗?

除了抱着玩一玩的心态,也能了解到操作系统层的一些知识,何乐不为?

碰壁
根据我前几天写的《如何度量Kernel Resources for PostgreSQL》,我们可以评估得出,如果要支持100万个数据库客户端连接,操作系统应该如何配置。

但是实际上能如愿吗?

以PostgreSQL 9.5为例,100万个连接,需要多少信号量?

需要多少组信号量?

SEMMNI >= (max_connections + max_worker_processes + autovacuum_max_workers + 5) / 16
100万连接,SEMMNI >= 62500

需要多少信号量?

SEMMNS >= ((max_connections + max_worker_processes + autovacuum_max_workers + 5) / 16) * 17 + 其他程序的需求
100万连接,SEMMNS >= 1062500

每组需要多少信号量?

SEMMSL >= 17
测试环境如下

CentOS 6.x x64, 512GB内存。

kernel.sem = 18 2147483647      2147483646      512000000 

max number of arrays = 512000000
max semaphores per array = 18
max semaphores system wide = 2147483647
max ops per semop call = 2147483646
以上内核配置,信号量完全满足100万连接需求。

那么数据库能启动吗?

vi postgresql.conf
max_connections = 1000000

pg_ctl start
启动失败。

原因分析
报错来自如下代码:
使用semget创建sem失败。
src/backend/port/sysv_sema.c

       /*
   76  * InternalIpcSemaphoreCreate
   77  *
   78  * Attempt to create a new semaphore set with the specified key.
   79  * Will fail (return -1) if such a set already exists.
   80  *
   81  * If we fail with a failure code other than collision-with-existing-set,
   82  * print out an error and abort.  Other types of errors suggest nonrecoverable
   83  * problems.
   84  */
   85 static IpcSemaphoreId
   86 InternalIpcSemaphoreCreate(IpcSemaphoreKey semKey, int numSems)
   87 {
   88     int         semId;
   89
   90     semId = semget(semKey, numSems, IPC_CREAT | IPC_EXCL | IPCProtection);
   91
   92     if (semId < 0)
   93     {
   94         int         saved_errno = errno;
   95
   96         /*
   97          * Fail quietly if error indicates a collision with existing set. One
   98          * would expect EEXIST, given that we said IPC_EXCL, but perhaps we
   99          * could get a permission violation instead?  Also, EIDRM might occur
  100          * if an old set is slated for destruction but not gone yet.
  101          */
  102         if (saved_errno == EEXIST || saved_errno == EACCES
  103 #ifdef EIDRM
  104             || saved_errno == EIDRM
  105 #endif
  106             )
  107             return -1;
  108
  109         /*
  110          * Else complain and abort
  111          */
  112         ereport(FATAL,
  113                 (errmsg("could not create semaphores: %m"),
  114                  errdetail("Failed system call was semget(%lu, %d, 0%o).",
  115                            (unsigned long) semKey, numSems,
  116                            IPC_CREAT | IPC_EXCL | IPCProtection),
  117                  (saved_errno == ENOSPC) ?
  118                  errhint("This error does *not* mean that you have run out of disk space.  "
  119           "It occurs when either the system limit for the maximum number of "
  120              "semaphore sets (SEMMNI), or the system wide maximum number of "
  121             "semaphores (SEMMNS), would be exceeded.  You need to raise the "
  122           "respective kernel parameter.  Alternatively, reduce PostgreSQL's "
  123                          "consumption of semaphores by reducing its max_connections parameter.\n"
  124               "The PostgreSQL documentation contains more information about "
  125                          "configuring your system for PostgreSQL.") : 0));
  126     }
  127
  128     return semId;
  129 }
semget之所以失败,并不是kernel.sem的配置问题,而是操作系统内核的宏限制。

sem的分组数量不能大于semvmx,也就是说,最多能开50多万个连接。

如下
kernels/xxx.x86_64/include/uapi/linux/sem.h

#define SEMMNI  128             /* <= IPCMNI  max # of semaphore identifiers */
#define SEMMSL  250             /* <= 8 000 max num of semaphores per id */
#define SEMMNS  (SEMMNI*SEMMSL) /* <= INT_MAX max # of semaphores in system */
#define SEMOPM  32              /* <= 1 000 max num of ops per semop call */
#define SEMVMX  32767           /* <= 32767 semaphore maximum value */
#define SEMAEM  SEMVMX          /* adjust on exit max value */

/* unused */
#define SEMUME  SEMOPM          /* max num of undo entries per process */
#define SEMMNU  SEMMNS          /* num of undo structures system wide */
#define SEMMAP  SEMMNS          /* # of entries in semaphore map */
#define SEMUSZ  20              /* sizeof struct sem_undo */
超过32767个array后会报错

$ ipcs -u

------ Semaphore Status --------
used arrays = 32768
allocated semaphores = 557056

$ pg_ctl start
FATAL:  could not create semaphores: No space left on device
DETAIL:  Failed system call was semget(1953769, 17, 03600).
HINT:  This error does *not* mean that you have run out of disk space. 
It occurs when either the system limit for the maximum number of semaphore sets (SEMMNI),
or the system wide maximum number of semaphores (SEMMNS), would be exceeded. 
You need to raise the respective kernel parameter. 
Alternatively, reduce PostgreSQL's consumption of semaphores by reducing its max_connections parameter.
        The PostgreSQL documentation contains more information about configuring your system for PostgreSQL.
使用ipcs -l也能查看到当前值

semaphore max value = 32767
这个值只能重新编译内核来修改。

在semctl和semop的手册中也能看到,有此说法。

man semctl
       SEMVMX Maximum value for semval: implementation dependent (32767).

man semop
       SEMVMX Maximum allowable value for semval: implementation dependent (32767).

       The implementation has no intrinsic limits for the adjust on exit maximum value (SEMAEM), the system wide maximum number of undo structures (SEMMNU) and the per-process maximum number of undo entries system
       parameters.
100万连接没戏了吗?

当然可以办到。

例如修改SEMVMX,并重新编译内核显然是一条路,但是还有其他路子吗?

柳暗花明又一春, PostgreSQL 支持POSIX sem
我们前面看到,报错的代码是
InternalIpcSemaphoreCreate@src/backend/port/sysv_sema.c

查看对应头文件,发现PG支持几种创建信号量的方式,真的是柳暗花明又一春 :

sysv, posix(named , unamed), win32

对应的头文件源码如下
src/include/storage/pg_sema.h

/*
 * PGSemaphoreData and pointer type PGSemaphore are the data structure
 * representing an individual semaphore.  The contents of PGSemaphoreData
 * vary across implementations and must never be touched by platform-
 * independent code.  PGSemaphoreData structures are always allocated
 * in shared memory (to support implementations where the data changes during
 * lock/unlock).
 *
 * pg_config.h must define exactly one of the USE_xxx_SEMAPHORES symbols.
 */

#ifdef USE_NAMED_POSIX_SEMAPHORES

#include <semaphore.h>

typedef sem_t *PGSemaphoreData;
#endif

#ifdef USE_UNNAMED_POSIX_SEMAPHORES

#include <semaphore.h>

typedef sem_t PGSemaphoreData;
#endif

#ifdef USE_SYSV_SEMAPHORES

typedef struct PGSemaphoreData
{
        int                     semId;                  /* semaphore set identifier */
        int                     semNum;                 /* semaphore number within set */
} PGSemaphoreData;
#endif

#ifdef USE_WIN32_SEMAPHORES

typedef HANDLE PGSemaphoreData;
#endif
其中posix的named和unamed分别使用如下系统调用
posix named 方式创建信号 :

        mySem = sem_open(semname, O_CREAT | O_EXCL,
                         (mode_t) IPCProtection, (unsigned) 1);
posix unamed 方式创建信号 :

  sem_init(sem, 1, 1)
posix源码如下,注意用到的宏
src/backend/port/posix_sema.c

#ifdef USE_NAMED_POSIX_SEMAPHORES

/*
 * PosixSemaphoreCreate
 *
 * Attempt to create a new named semaphore.
 *
 * If we fail with a failure code other than collision-with-existing-sema,
 * print out an error and abort.  Other types of errors suggest nonrecoverable
 * problems.
 */
static sem_t *
PosixSemaphoreCreate(void)
{
    int         semKey;
    char        semname[64];
    sem_t      *mySem;

    for (;;)
    {
        semKey = nextSemKey++;

        snprintf(semname, sizeof(semname), "/pgsql-%d", semKey);

        mySem = sem_open(semname, O_CREAT | O_EXCL,
                         (mode_t) IPCProtection, (unsigned) 1);

#ifdef SEM_FAILED
        if (mySem != (sem_t *) SEM_FAILED)
            break;
#else
        if (mySem != (sem_t *) (-1))
            break;
#endif

        /* Loop if error indicates a collision */
        if (errno == EEXIST || errno == EACCES || errno == EINTR)
            continue;

        /*
         * Else complain and abort
         */
        elog(FATAL, "sem_open(\"%s\") failed: %m", semname);
    }

    /*
     * Unlink the semaphore immediately, so it can't be accessed externally.
     * This also ensures that it will go away if we crash.
     */
    sem_unlink(semname);

    return mySem;
}
#else                           /* !USE_NAMED_POSIX_SEMAPHORES */

/*
 * PosixSemaphoreCreate
 *
 * Attempt to create a new unnamed semaphore.
 */
static void
PosixSemaphoreCreate(sem_t * sem)
{
    if (sem_init(sem, 1, 1) < 0)
        elog(FATAL, "sem_init failed: %m");
}
#endif   /* USE_NAMED_POSIX_SEMAPHORES */
从src/include/storage/pg_sema.h 可以看到,在pg_config.h中必须有一个指定的USE_xxx_SEMAPHORES symbols。

这个symbol不是直接设置pg_config.h来的,是在configure时设置的,会自动加到pg_config.h 。

 Select semaphore implementation type.
if test "$PORTNAME" != "win32"; then
  if test x"$USE_NAMED_POSIX_SEMAPHORES" = x"1" ; then

$as_echo "#define USE_NAMED_POSIX_SEMAPHORES 1" >>confdefs.h

    SEMA_IMPLEMENTATION="src/backend/port/posix_sema.c"
  else
    if test x"$USE_UNNAMED_POSIX_SEMAPHORES" = x"1" ; then

$as_echo "#define USE_UNNAMED_POSIX_SEMAPHORES 1" >>confdefs.h

      SEMA_IMPLEMENTATION="src/backend/port/posix_sema.c"
    else

$as_echo "#define USE_SYSV_SEMAPHORES 1" >>confdefs.h

      SEMA_IMPLEMENTATION="src/backend/port/sysv_sema.c"
    fi
  fi
else

$as_echo "#define USE_WIN32_SEMAPHORES 1" >>confdefs.h

  SEMA_IMPLEMENTATION="src/backend/port/win32_sema.c"
fi
默认使用SYSV,如果要使用其他的sem方法。

可以这么做

export USE_UNNAMED_POSIX_SEMAPHORES=1
LIBS=-lpthread ./configure  --prefix=/home/digoal/pgsql9.5
记得加-lpthread ,否则报错

/bin/ld: port/pg_sema.o: undefined reference to symbol 'sem_close@@GLIBC_2.2.5'
/bin/ld: note: 'sem_close@@GLIBC_2.2.5' is defined in DSO /lib64/libpthread.so.0 so try adding it to the linker command line
/lib64/libpthread.so.0: could not read symbols: Invalid operation
collect2: error: ld returned 1 exit status
make[2]: *** [postgres] Error 1
make[2]: Leaving directory `/home/digoal/postgresql-9.5.3/src/backend'
make[1]: *** [all-backend-recurse] Error 2
make[1]: Leaving directory `/home/digoal/postgresql-9.5.3/src'
make: *** [world-src-recurse] Error 2
通过这些系统调用的Linux编程帮助文档,了解一下posix的信号量管理

man sem_overview
man sem_init , unnamed sem
man sem_open , named sem

        EINVAL value was greater than SEM_VALUE_MAX.
可以得知sem_open 也受到semvmx的限制

因此为了在不修改内核的情况下,实现PostgreSQL支持100万个连接,甚至更多。

必须使用USE_UNNAMED_POSIX_SEMAPHORES

开工,让PostgreSQL支持100万个连接
使用USE_UNNAMED_POSIX_SEMAPHORES编译

export USE_UNNAMED_POSIX_SEMAPHORES=1
LIBS=-lpthread ./configure  --prefix=/home/digoal/pgsql9.5
make world -j 32
make install-world -j 32
修改参数,允许100万个连接

vi postgresql.conf
max_connections = 1000000
重启数据库

pg_ctl restart -m fast
测试100万个数据库并发连接
pgbench是很好的测试工具,只不过限制了1024个连接,为了支持100万个连接测试,需要修改一下。

代码

vi src/bin/pgbench/pgbench.c
#ifdef WIN32
#define FD_SETSIZE 1024                     /* set before winsock2.h is included */
#endif   /* ! WIN32 */

/* max number of clients allowed */
#ifdef FD_SETSIZE
#define MAXCLIENTS      (FD_SETSIZE - 10)
#else
#define MAXCLIENTS      1024
#endif

                        case 'c':
                                benchmarking_option_set = true;
                                nclients = atoi(optarg);

                if (nclients <= 0)  // 改一下这里 || nclients > MAXCLIENTS)
                                {
                                        fprintf(stderr, "invalid number of clients: \"%s\"\n",
                                                        optarg);
                                        exit(1);
                                }
测试表

postgres=# create unlogged table test(id int, info text);
CREATE TABLE
测试脚本

vi test.sql

\setrandom s 1 100
select pg_sleep(:s);
insert into test values (1,'test');
继续碰壁
开始压测,遇到第一个问题

pgbench -M prepared -n -r -f ./test.sql -c 999900 -j 1 -T 10000
  need at least 999903 open files, but system limit is 655360
  Reduce number of clients, or use limit/ulimit to increase the system limit.
这个问题还好,是打开文件数受限,改一些限制就可以解决

修改ulimit

vi /etc/security/limits.conf
* soft nofile 1048576
* hard nofile 1048576
* soft noproc 10000000
* hard noproc 10000000
* soft memlock unlimited
* hard memlock unlimited
修改内核参数

sysctl -w fs.file-max=419430400000
重测,再次遇到问题,原因是pgbench使用了ip地址连接PG,导致pgbench的动态端口耗尽。

pgbench -M prepared -n -r -f ./test.sql -c 999900 -j 1 -T 10000
connection to database "postgres" failed:
could not connect to server: Cannot assign requested address
        Is the server running on host "127.0.0.1" and accepting
        TCP/IP connections on port 1921?
transaction type: Custom query
scaling factor: 1
query mode: prepared
number of clients: 999900
number of threads: 1
duration: 10000 s
number of transactions actually processed: 0
换成unix socket连接即可解决。

pgbench -M prepared -n -r -f ./test.sql -c 999900 -j 1 -T 10000 -h $PGDATA
connection to database "postgres" failed:
could not fork new process for connection: Cannot allocate memory

could not fork new process for connection: Cannot allocate memory
transaction type: Custom query
scaling factor: 1
query mode: prepared
number of clients: 999900
number of threads: 1
duration: 10000 s
number of transactions actually processed: 0
不能fork new process,后面跟了个Cannot allocate memory这样的提示,我看了当前的配置

vm.swappiness = 0
vm.overcommit_memory = 0
于是我加了交换分区,同时改了几个参数

dd if=/dev/zero of=./swap1 bs=1024k count=102400 oflag=direct
mkswap ./swap1
swapon ./swap1
sysctl -w vm.overcommit_memory=1     (always over commit)
sysctl -w vm.swappiness=1
重新测试,发现还是有问题

pgbench -M prepared -n  -f ./test.sql -c 999900 -j 1 -T 10000 -h $PGDATA

could not fork new process for connection: Cannot allocate memory
使用以下手段观测,发现在约连接到 65535 时报错

sar -r 1 10000

psql
select count(*) from pg_stat_activity;
\watch 1
支持百万连接目标达成
找到了根源,是内核限制了

kernel.pid_max=65535 
修改一下这个内核参数

sysctl -w kernel.pid_max=4096000
重新测试

pgbench -M prepared -n  -f ./test.sql -c 999900 -j 1 -T 10000 -h $PGDATA
继续观测

psql
select count(*) from pg_stat_activity;
\watch 1

sar -r 1 10000
连接到26万时,内存用了约330GB,每个连接1MB左右。

看起来应该没有问题了,只要内存足够是可以搞定100万连接的。

小结
为了让PostgreSQL支持100万个并发连接,除了资源(主要是内存)要给足。

数据库本身编译也需要注意,还需要操作系统内核也需要一些调整。

编译PostgreSQL 时使用 posix unname sem 。

export USE_UNNAMED_POSIX_SEMAPHORES=1
LIBS=-lpthread ./configure  --prefix=/home/digoal/pgsql9.5
make world -j 32
make install-world -j 32
如果你不打算使用unnamed posix sem,那么务必重新编译操作系统内核,增加SEMVMX.

打开文件数限制
ulimit

vi /etc/security/limits.conf
* soft nofile 1048576
* hard nofile 1048576
* soft noproc 10000000
* hard noproc 10000000
修改内核参数

sysctl -w fs.file-max=419430400000
使用unix socket
突破pgbench测试时,动态端口数量限制。

每个连接约1MB,100万个连接,需要约1TB内存,需要给足内存。
启用swap

dd if=/dev/zero of=./swap1 bs=1024k count=102400 oflag=direct
mkswap ./swap1
swapon ./swap1
.
.
sysctl -w vm.overcommit_memory=0
sysctl -w vm.swappiness=1
实际上还是发生了OOM,而且hang了很久。

[67504.841109] Memory cgroup out of memory: Kill process 385438 (pidof) score 721 or sacrifice child
[67504.850566] Killed process 385438, UID 0, (pidof) total-vm:982240kB, anon-rss:978356kB, file-rss:544kB
[67517.496404] pidof invoked oom-killer: gfp_mask=0xd0, order=0, oom_adj=0, oom_score_adj=0
[67517.496407] pidof cpuset=/ mems_allowed=0
[67517.496410] Pid: 385469, comm: pidof Tainted: G           --------------- H
最大PID值的限制
加大

sysctl -w kernel.pid_max=4096000
pgbench客户端的限制
修改源码,支持无限连接。

ipcs不统计posix sem的信息,所以使用posix sem后ipcs看不到用了多少sem.

System V 与 POSIX sem

NOTES
   System V semaphores (semget(2), semop(2), etc.) are an older semaphore API. 
   POSIX semaphores provide a simpler, and better designed interface than System V semaphores;     
   on the other hand  POSIX  semaphores  are  less  widely available (especially on older systems) than System V semaphores.

时间: 2024-10-04 17:12:33

PostgreSQL支持100万个连接测试详解的相关文章

从PostgreSQL支持100万个连接聊起

背景 100万个数据库连接,绝逼疯了,常人怎么会干这种事情. 没错,数据库支持100万个连接意味着什么呢?不能用连接池吗? 除了抱着玩一玩的心态,也能了解到操作系统层的一些知识,何乐不为? 碰壁 根据我前几天写的<如何度量Kernel Resources for PostgreSQL>,我们可以评估得出,如果要支持100万个数据库客户端连接,操作系统应该如何配置.https://yq.aliyun.com/articles/58690 但是实际上能如愿吗? 以PostgreSQL 9.5为例,

tcp连接的几种状态及连接状态详解

TCP连接示意图如下 通常情况下,一个正常的TCP连接,都会有三个阶段:     TCP三次握手;    数据传送;    TCP四次挥手 里面的几个概念:     SYN: (同步序列编号,Synchronize Sequence Numbers)    ACK: (确认编号,Acknowledgement Number)    FIN: (结束标志,FINish) I. TCP三次握手 客户端发起一个和服务创建TCP链接的请求,这里是SYN(J)服务端接受到客户端的创建请求后,返回两个信息:

PostgreSQL分区表(partitioning)应用实例详解_PostgreSQL

前言 项目中有需求要垂直分表,即按照时间区间将数据拆分到n个表中,PostgreSQL提供了分区表的功能.分区表实际上是把逻辑上的一个大表分割成物理上的几小块,提供了很多好处,比如: 1.查询性能大幅提升 2.删除历史数据更快 3.可将不常用的历史数据使用表空间技术转移到低成本的存储介质上 那么什么时候该使用分区表呢?官方给出的指导意见是:当表的大小超过了数据库服务器的物理内存大小则应当使用分区表,接下来结合一个例子具体记录一下创建分区表的详细过程. 创建分区表 首先看一下需求,现在有一张日志表

使Nginx服务器支持中文URL的相关配置详解_nginx

关于中文URL已经是老话题了,到目前为止依然有很大一部分SEOer都会说不要使用中文URL,对搜索引擎不友好. 不过,那已经是以前的事了,谷歌很早就支持了中文URL,当时百度技术没有跟上,URL中会出现乱码. 在谷歌的算法中,URL包含关键字是会给页面赋予一定权重的,英文是,中文也是,朽木猜测百度之前没有给予中文URL权重,可能是因为识别的问题. 经过一些简单的测试,朽木发现中文URL中包含关键字,对百度SEO有很积极的影响. 不过需要注意的是最好使用UTF8编码,虽然百度有了"一定的识别能力&

ALICloudDB for PostgreSQL 试用报告 - 5 长短连接测试

本文将教你测试长连接和短连接的性能. 我们在连接阿里云RDS for PostgreSQL时,实际上并不是直接连接数据库的,而是通过了SLB. 那么这个代理有没有连接池功能呢?通过测试发现,即使有连接池的功能,也是会话级别的,所以如果你的业务系统如果是高并发的短事务,建议你在应用层启用连接池,如果不能启用,那么请在应用层自己假设一个连接池例如pgbouncer. 测试: 3433代理并不是全代理,所以我们看到客户端IP地址就是实际的客户端IP,而不是代理的IP. postgres@xxx-> p

TCP连接状态详解及TIME_WAIT过多的解决方法

  TIME_WAIT状态原理 ---------------------------- 通信双方建立TCP连接后,主动关闭连接的一方就会进入TIME_WAIT状态. 客户端主动关闭连接时,会发送最后一个ack后,然后会进入TIME_WAIT状态,再停留2个MSL时间(后有MSL的解释),进入CLOSED状态. 下图是以客户端主动关闭连接为例,说明这一过程的.   TIME_WAIT状态存在的理由 ---------------------------- TCP/IP协议就是这样设计的,是不可避

spring学习笔记(17)数据库配置[1]spring数据连接池详解

数据连接池 在spring中,常使用数据库连接池来完成对数据库的连接配置,类似于线程池的定义,数据库连接池就是维护有一定数量数据库连接的一个缓冲池,一方面,能够即取即用,免去初始化的时间,另一方面,用完的数据连接会归还到连接池中,这样就免去了不必要的连接创建.销毁工作,提升了性能.当然,使用连接池,有一下几点是连接池配置所考虑到的,也属于配置连接池的优点,而这些也会我们后面的实例配置中体现: 1. 如果没有任何一个用户使用连接,那么那么应该维持一定数量的连接,等待用户使用. 2. 如果连接已经满

Java Hibernate 之连接池详解

Hibernate支持第三方的连接池,官方推荐的连接池是C3P0,Proxool,以及DBCP.在配置连接池时需要注意的有三点: 一.Apche的DBCP在Hibernate2中受支持,但在Hibernate3中已经不再推荐使用,官方的解释是这个连接池存在缺陷.如果你因为某种原因需要在Hibernate3中使用DBCP,建议采用JNDI方式. 二.默认情况下(即没有配置连接池的情况下),Hibernate会采用内建的连接池.但这个连接池性能不佳,且存在诸多BUG(笔者就曾在Mysql环境下被八小

MYSQL压力测试工具sysbench安装测试详解

如果评测一台mysql数据库的压力,可以使用sysbench来测试, 具体的操作出下,先安装sysbench工具,安装操作如下: 安装环境 CentOS release 5.4 (Final) MySQL 5.1.40 MySQL_HOME=/usr/local/mysql/ Sysbench 0.4.12 安装步骤: 1. 去http://sourceforge.net/projects/sysbench/下载最新版本的sysbench 0.4.12 2. 解压缩sysbench-0.4.12