一个比较实用的大数据量分页存储过程

比较|存储过程|分页|数据

create proc sp_PublicTurnPageWebSite(
 @TBName  nvarchar(100)='', --表名,如 pinyin
 @PageSize int=10,   --每页的记录数,默认为 10
 @CurPage int=1,   --表示当前页 1
 @KeyField nvarchar(100)='ID', --关键字段名,默认为 ID,该字段要求是表中的索引 或 无重复和不为空的字段
 @KeyAscDesc nvarchar(4)='ASC', --关键字的升、降序,默认为升序 ASC , 降序为 DESC
 @Fields  nvarchar(500)='*', --所选择的列名,默认为全选
 @Condition nvarchar(200)='', --where 条件,默认为空
 @Order  nvarchar(200)='' --排序条件,默认为空
) with encryption as
 if @TBName = ''
    begin
        raiserror('请指定表名!',11,1)
        return
    end
 if @PageSize <=0 or @CurPage <0
    begin
        raiserror('当前页数和每页的记录数都必须大于零!',11,1)
        return
    end
 if @KeyAscDesc = 'DESC'
  set @KeyAscDesc = '<'
 else
  set @KeyAscDesc = '>'
 if @Condition <> ''
  set @Condition = ' where ' + @Condition
 declare @SQL nvarchar(2000)

 set @SQL = ''
 if @CurPage = 1
    set @SQL = @SQL + 'SELECT Top ' + cast(@PageSize as nvarchar(20)) + ' ' + @Fields + ' FROM ' + @TBName + @Condition + ' ' + @Order
 else
    begin
  declare @iTopNum int
  set @iTopNum = @PageSize * (@CurPage - 1)
  set @SQL = @SQL + 'declare @sLastValue nvarchar(100)' + char(13)
  set @SQL = @SQL + 'SELECT Top ' + cast(@iTopNum as nvarchar(20)) + ' @sLastValue=' + @KeyField + ' FROM ' + @TBName + @Condition + ' ' + @Order + char(13)
  
  declare @Condition2 nvarchar(200)
  if @Condition = ''
     set @Condition2 = ' where ' + @KeyField + @KeyAscDesc + '@sLastValue '
  else
     set @Condition2 = ' and ' + @KeyField + @KeyAscDesc + '@sLastValue '
  set @SQL = @SQL + 'SELECT Top ' + cast(@PageSize as nvarchar(20)) + ' ' + @Fields + ' FROM ' + @TBName + @Condition + @Condition2 + @Order
    end
 EXECUTE sp_executesql @SQL

时间: 2025-01-21 02:29:24

一个比较实用的大数据量分页存储过程的相关文章

一个比较实用的大数据量分页存储过程_MsSql

create proc sp_PublicTurnPageWebSite( @TBName nvarchar(100)='', --表名,如 pinyin @PageSize int=10, --每页的记录数,默认为 10 @CurPage int=1, --表示当前页 1 @KeyField nvarchar(100)='ID', --关键字段名,默认为 ID,该字段要求是表中的索引 或 无重复和不为空的字段 @KeyAscDesc nvarchar(4)='ASC', --关键字的升.降序,

大数据量分页存储过程效率测试附测试代码与结果

测试环境 硬件:CPU 酷睿双核T5750 内存:2G 软件:Windows server 2003 + sql server 2005 OK,我们首先创建一数据库:data_Test,并在此数据库中创建一表:tb_TestTable 复制代码 代码如下: create database data_Test --创建数据库 data_Test GO use data_Test GO create table tb_TestTable --创建表 (id int identity(1,1) pri

大数据量分页存储过程效率测试附测试代码与结果_MsSql

测试环境 硬件:CPU 酷睿双核T5750 内存:2G 软件:Windows server 2003 + sql server 2005 OK,我们首先创建一数据库:data_Test,并在此数据库中创建一表:tb_TestTable 复制代码 代码如下: create database data_Test --创建数据库 data_Test  GO use data_Test GO create table tb_TestTable --创建表 (id int identity(1,1) pr

Oracle大数据量分页通用存储过程

/*根据网友资料修改的,见笑了*/ type refCursorType is REF CURSOR;  --游标类型定义,用于返回数据集 /***************************************************************** *功能描述: 大数据量分页通用存储过程 *创 建 人: 夏春涛 xchuntao@163.com qq:23106676 *创建时间: 2005-06-29 **********************************

mysql limit大数据量分页优化方法

Mysql的优化是非常重要的.其他最常用也最需要优化的就是limit.Mysql的limit给分页带来了极大的方便,但数据量一大的时候,limit的性能就急剧下降. 同样是取10条数据 select * from yanxue8_visit limit 10000,10 和 select * from yanxue8_visit limit 0,10 就不是一个数量级别的. 网上也很多关于limit的五条优化准则,都是翻译自Mysql手册,虽然正确但不实用.今天发现一篇文章写了些关于limit优

mysql limit 大数据量分页优化方法

Mysql的优化是非常重要的.其他最常用也最需要优化的就是limit.Mysql的limit给分页带来了极大的方便,但数据量一大的时候,limit的性能就急剧下降. 同样是取10条数据 select * from yanxue8_visit limit 10000,10 和 select * from yanxue8_visit limit 0,10 就不是一个数量级别的. 网上也很多关于limit的五条优化准则,都是翻译自Mysql手册,虽然正确但不实用.今天发现一篇文章写了些关于limit优

asp 大数据量分页实例代码

<!doctype html public "-//w3c//dtd html 4.0 transitional//en"> <html><head><title>后台</title> <meta http-equiv=content-type content="text/html; charset=gb2312"> <% set rs=server.createobject("

大数据量下的分页

分页|数据 对于非常大的数据模型而言,分页检索时,每次都加载整个数据源非常浪费.通常的选择是检索页面大小的块区的数据,而非检索所有的数据,然后单步执行当前行. 本文演示ASP.net的DataGrid和Sql Server 实现大数据量下的分页,为了便于实现演示,数据表采用了Northwind数据库的Orders表(830条记录). 如果数据表中有唯一的自增索引,并且这个字段没有出现断号现象.检索页面大小的块区数据就非常简单了.通过简单的Sql语句就可以实现这个功能:select * from

Lucene的分页功能怎么这么局限啊,大数据量下会内存溢出,而且很慢!!!!谁能解释下,谢谢

问题描述 大家说说Lucene针对以下这种大数据量分页场景,有没有必要改进的...真的很痛苦!我们的项目就要求用lucene,不用oracle,数据量又大,分页这里是个性能瓶颈,搞不定啊!TopScoreDocCollectorf=TopScoreDocCollector.create(10000010,false);indexSearcher.search(query,f);TopDocstopDocs=f.topDocs(10000000,10000010);​遇到这种大数据量问题,很痛苦,