mysql limit速度优化分析

mysql教程数据库教程的优化是相当重要的。其他最为常用也是最为需要优化的就是limit。mysql的limit给分页带来了极大的方便,但数据量一大的时候,limit的性能就急剧下降。

  同样是取10条数据

 

select * from yanxue8_visit limit 10000,10       select * from yanxue8_visit limit 0,10      就不是一个数量级别的。

  网上也很多关于limit的五条优化准则,都是翻译自mysql手册,虽然正确但不实用。今天发现一篇文章写了些关于limit优化的,很不错。

  文中不是直接使用limit,而是首先获取到offset的id然后直接使用limit size来获取数据。根据他的数据,明显要好于直接使用limit。这里我具体使用数据分两种情况进行测试。(测试环境win2033+p4双核 (3ghz) +4g内存mysqllimit查询)

  1、offset比较小的时候

 

1.select * from yanxue8_visit limit 10,10     多次运行,时间保持在0.0004-0.0005之间

 

select * from yanxue8_visit where vid >=(      select vid from yanxue8_visit order by vid limit 10,1  ) limit 10     多次运行,时间保持在0.0005-0.0006之间,主要是0.0006

  结论:偏移offset较小的时候,直接使用limit较优。这个显然是子查询的原因。

  2、offset大的时候

 

select * from yanxue8_visit limit 10000,10     多次运行,时间保持在0.0187左右

 

select * from yanxue8_visit where vid >=(      select vid from yanxue8_visit order by vid limit 10000,1  ) limit 10      多次运行,时间保持在0.0061左右,只有前者的1/3。可以预计offset越大,后者越优。

  以后要注意改正自己的limit语句,优化一下mysql了

  推荐人评论

  mysql的优化是非常重要的。其他最常用也最需要优化的就是limit。mysql的limit给分页带来了极大的方便,但数据量一大的时候,limit的性能就急剧下降。

使用mysql数据库,需要返回前几条或者中间某几行数据,就要使用到mysql中的limit子句。通常我们也是使用limit去实现分页的。具体语法如下:
  sql代码
select * from table limit [offset,] rows | rows offset offset   

   select * from table limit [offset,] rows | rows offset offset
 
  limit子句被用于强制select语句返回指定的记录数。limit接受一个或两个数字参数。参数必须是一个整数常量。如果给定两个参数,第一个参数指定第一个返回记录行的偏移量,第二个参数指定返回记录行的最大数目。注意:初始记录行的偏移量是0而不是1。
  具体例子:
  sql代码
select * from table limit 5,10; //检索记录行 6-15  

    select * from table limit 5,10; //检索记录行 6-15
 
  为了检索从某一个偏移量到记录集的结束所有的记录行,可以指定第二个参数为 -1:
   sql代码
select * from table limit 75,-1; //检索记录行75-last.   

    select * from table limit 75,-1; //检索记录行75-last.
  
   如果只给定一个参数,它表示返回最大的记录行数目:
   sql代码
//检索前5个记录行,换句话说,limit n等价于limit 0,n  
select * from table limit 5; 

 

mysql 不允许对子查询用limit。

sql = "select * from users " + ps教程ql + " limit " + (pcurrentpage_int - 1) * getpagesize() + "," + getpagesize();
这是我原本的sql 语句.
数据大的时候.性能不是很好.
我就重写了
这样

sql = "select * from users " + psql;
               if(psql.length() == 0) {
                  sql += " where id >= (select id from users order by id limit " + (pcurrentpage_int - 1) * getpagesize() + ",1) limit " + getpagesize();
                } else {
                  sql += " and id >= (select id from users " + psql + " order by id limit " + (pcurrentpage_int - 1) * getpagesize() + ",1) limit " + getpagesize();
                }

 

我也遇到过limit的性能问题,但性能的瓶颈是order by上。对*做order by速度非常慢。我的改进是只对id做,查出所需id再去select * from table where id in(idstring);性能提高不少。如果是分页可以考虑用 sql_calc_found_row . 希望对你有帮助。

select sql_calc_found_row id from table where ------ limit 0,50;
select found_row() ;
两句一起用可以找出第一条语句的一共有多少符合条件的结果。

时间: 2024-11-02 12:09:48

mysql limit速度优化分析的相关文章

mysql limit 分页优化详解

实现分页,我们一般会使用 select * from table   where id >100  limit   a,b   ,  当分页过大时,如达到一万页,此时 a =十万 ,b=10,   虽然此处使用到了索引(不用索引情况会更加糟糕),但是通过索引检索后还是需要回表去取 十万零一十条数据  然后丢掉前十万条, 返回十条,这个代价明显太大了.   通常的解决方法是,限制总页数,因为通过没有用户会对一万页后的数据感兴趣,当然也可以通过coreseek sphinx 等实现   当然也可以通

mysql limit分页优化方法分享_Mysql

同样是取10条数据 select * from yanxue8_visit limit 10000,10 和 select * from yanxue8_visit limit 0,10 就不是一个数量级别的. 网上也很多关于limit的五条优化准则,都是翻译自MySQL手册,虽然正确但不实用.今天发现一篇文章写了些关于limit优化的,很不错. 文中不是直接使用limit,而是首先获取到offset的id然后直接使用limit size来获取数据.根据他的数据,明显要好于直接使用limit.这

php下MYSQL limit的优化_php技巧

同样是取10条数据 select * from yanxue8_visit limit 10000,10 和select * from yanxue8_visit limit 0,10 就不是一个数量级别的.      网上也很多关于limit的五条优化准则,都是翻译自mysql手册,虽然正确但不实用.今天发现一篇文章写了些关于limit优化的,很不错.原文地址:http://www.zhenhua.org/article.asp?id=200     文中不是直接使用limit,而是首先获取到

MYSQL分页limit速度太慢的优化方法_Mysql

在mysql中limit可以实现快速分页,但是如果数据到了几百万时我们的limit必须优化才能有效的合理的实现分页了,否则可能卡死你的服务器哦.    当一个表数据有几百万的数据的时候成了问题!    如 * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢,可以按照一下方法解决     第一页会很快    PERCONA PERFORMANCE CONFERENCE 2009上,来自雅虎的几位工程师带来了一篇"Efficient

MySQL中分页优化的实例详解_Mysql

通常,我们会采用ORDER BY LIMIT start, offset 的方式来进行分页查询.例如下面这个SQL: SELECT * FROM `t1` WHERE ftype=1 ORDER BY id DESC LIMIT 100, 10; 或者像下面这个不带任何条件的分页SQL: SELECT * FROM `t1` ORDER BY id DESC LIMIT 100, 10; 一般而言,分页SQL的耗时随着 start 值的增加而急剧增加,我们来看下面这2个不同起始值的分页SQL执行

Mysql Limit 分页查询优化详解_Mysql

select * from table LIMIT 5,10; #返回第6-15行数据 select * from table LIMIT 5; #返回前5行 select * from table LIMIT 0,5; #返回前5行 我们来写分页 物理分页 select * from table LIMIT (当前页-1)*每页显示条数,每页显示条数; MySQL之Limit简单优化.md 同样是取90000条后100条记录,传统方式还是改造方式? 传统方式是先取了前90001条记录,取其中最

MYSQL分页limit速度太慢优化详解

在mysql中limit可以实现快速分页,但是如果数据到了几百万时我们的limit必须优化才能有效的合理的实现分页了,否则可能卡死你的服务器哦. 当一个表数据有几百万的数据的时候成了问题! 如 * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢,可以按照一下方法解决 第一页会很快 PERCONA PERFORMANCE CONFERENCE 2009上,来自雅虎的几位工程师带来了一篇"EfficientPagination Us

MYSQL分页limit速度太慢优化方法

当一个表数据有几百万的数据时,分页的时候成了问题 如 select * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢,可以按照一下方法解决 最近一个网站的服务器评论被人刷死,导致mysql数据库异常发生too many open connections 引发的SQL语句  代码如下 复制代码 SELECT a.uid, a.veil, a.content, a.datetimes, a.audit, b.user_name,

Mysql limit 优化,百万至千万级快速分页 复合索引的引用并应用于轻量级框架_Mysql

MySql 这个数据库绝对是适合dba级的高手去玩的,一般做一点1万篇新闻的小型系统怎么写都可以,用xx框架可以实现快速开发.可是数据量到了10万,百万至千万,他的性能还能那么高吗?一点小小的失误,可能造成整个系统的改写,甚至更本系统无法正常运行!好了,不那么多废话了.用事实说话,看例子: 数据表 collect ( id, title ,info ,vtype) 就这4个字段,其中 title 用定长,info 用text, id 是逐渐,vtype是tinyint,vtype是索引.这是一个