基于Solr DIH实现MySQL表数据全量索引和增量索引

实现MySQL表数据全量索引和增量索引,基于Solr DIH组件实现起来比较简单,只需要重复使用Solr的DIH(Data Import Handler)组件,对data-config.xml进行简单的修改即可。Solr DIH组件的实现类为org.apache.solr.handler.dataimport.DataImportHandler,在Solr的solrconfig.xml中配置两个handler,配置分别说明如下。

全量索引

solrconfig.xml配置如下:

1 <requestHandler name="/dataimport"
2 class="org.apache.solr.handler.dataimport.DataImportHandler">
3 <lst name="defaults">
4 <str name="config">data-config.xml</str>
5 </lst>
6 </requestHandler>

上面这个是针对全量索引的,主要是配置data-config.xml文件,示例如下所示:

01 <dataConfig>
02 <dataSource name="jdbc" driver="com.mysql.jdbc.Driver"
03 url="jdbc:mysql://172.0.8.249:5606/marketing_db_saved?zeroDateTimeBehavior=convertToNull"
04 user="developer" password="sedept@shiyanjun.cn"/>
05 <document name="mkt_data">
06 <entity name="marketing_data" pk="id"
07 query="select * from marketing_data limit ${dataimporter.request.length} offset ${dataimporter.request.offset}"
08 transformer="RegexTransformer">
09 <field column="id" name="id" />
10 <field column="domain" name="domain" />
11 <field column="alex_rank" name="alex_rank" />
12 <field column="server_port" name="server_port" />
13 <field column="cert_validity_notBefore" name="cert_validity_notBefore" />
14 <field column="cert_validity_notAfter" />
15 <field column="cert_validity_notAfter_yyyyMMdd" regex="(.*?)\s+.*"name="cert_validity_notAfter_yyyyMMdd" sourceColName="cert_validity_notAfter"/>
16 <field column="cert_issuer_brand" name="cert_issuer_brand" />
17 <field column="cert_validation" name="cert_validation" />
18 <field column="cert_isMultiDomain" name="cert_isMultiDomain" />
19 <field column="cert_issuer_brand_isXRelated"name="cert_issuer_brand_isXRelated" />
20 <field column="cert_isWildcard" name="cert_isWildcard" />
21 <field column="cert_notAfter" name="cert_notAfter" />
22 <field column="special_ssl" name="special_ssl" />
23 <field column="competitor_logo" name="competitor_logo" />
24 <field column="segment" name="segment" />
25 </entity>
26 </document>
27 </dataConfig>

上面主要是通过内置变量 “${dataimporter.request.length}”和 “${dataimporter.request.offset}”来设置一个批次索引的数据表记录数,请求的URL示例如下:

1 http://172.0.8.212:8080/search-server/core0/dataimport?command=full-import&commit=true&clean=false&offset=1000000&length=100000

上面表示,对数据表中id范围为[10000000, 1100000]的记录进行索引,因为数据表可能达到千万记录数,而且线上有业务在操作数据库,所以要选择分批进行索引。

增量索引

solrconfig.xml配置如下:

01 <requestHandler name="/deltaimport"class="org.apache.solr.handler.dataimport.DataImportHandler">
02 <lst name="defaults">
03 <str name="config">delta-data-config.xml</str>
04 </lst>
05 </requestHandler>
06 上面定义请求的接口为“deltaimport”,对应的配置文件delta- data-config.xml内容如下所示:
07 <dataConfig>
08 <dataSource name="jdbc" driver="com.mysql.jdbc.Driver"
09 url="jdbc:mysql://172.0.8.249:5606/marketing_db_saved?zeroDateTimeBehavior=convertToNull"
10 user="developer" password="sedept@shiyanjun.cn"/>
11 <document name="mkt_data">
12 <entity name="marketing_data" pk="id"
13 query="select * from marketing_data"
14 deltaImportQuery="select * from marketing_data where id='${dih.delta.id}'"
15 deltaQuery="select id from marketing_data where updated_at &gt; '${dih.last_index_time}'"
16 transformer="RegexTransformer">
17 <field column="id" name="id" />
18 <field column="domain" name="domain" />
19 <field column="alex_rank" name="alex_rank" />
20 <field column="server_port" name="server_port" />
21 <field column="cert_validity_notBefore" name="cert_validity_notBefore" />
22 <field column="cert_validity_notAfter" />
23 <field column="cert_validity_notAfter_yyyyMMdd" regex="(.*?)\s+.*"name="cert_validity_notAfter_yyyyMMdd" sourceColName="cert_validity_notAfter"/>
24 <field column="cert_issuer_brand" name="cert_issuer_brand" />
25 <field column="cert_validation" name="cert_validation" />
26 <field column="cert_isMultiDomain" name="cert_isMultiDomain" />
27 <field column="cert_issuer_brand_isXRelated"name="cert_issuer_brand_isXRelated" />
28 <field column="cert_isWildcard" name="cert_isWildcard" />
29 <field column="cert_notAfter" name="cert_notAfter" />
30 <field column="special_ssl" name="special_ssl" />
31 <field column="competitor_logo" name="competitor_logo" />
32 <field column="segment" name="segment" />
33 </entity>
34 </document>
35 </dataConfig>

上面主要是通过内置变量“${dih.delta.id}”和 “${dih.last_index_time}”来记录本次索引的id和最后索引时间。这里,会保存在deltaimport.properties文件中,示例如下:

1 #Sat Feb 16 17:48:49 CST 2013
2 last_index_time=2013-02-16 17\:48\:48
3 marketing_data.last_index_time=2013-02-16 17\:48\:48

请求增量索引的接口为“deltaimport”,可以写一个定时脚本,例如每隔一天执行一次 (一天索引一次,只索引数据表中更新的记录),请求URL示例如下:

1 172.0.8.212:8080/search-server/core0/dataimport?command=delta-import

有关“query”,“deltaImportQuery”, “deltaQuery”的解释,引用官网说明,如下所示:

  • The query gives the data needed to populate fields of the Solr document in full-import
  • The deltaImportQuery gives the data needed to populate fields when running a delta-import
  • The deltaQuery gives the primary keys of the current entity which have changes since the last index time

还有更灵活的索引方式,以后再讲。

时间: 2024-12-31 19:40:37

基于Solr DIH实现MySQL表数据全量索引和增量索引的相关文章

Solr DIH: 基于MySQL表数据建立索引

选择使用Solr,对数据库中数据进行索引,可以单独写程序将数据库中的数据导出并建立索引,这个过程可能对于数据处理的控制更灵活一些,但是却可能带来很大的工作量.选择使用Solr的DIH组件,可以很方便的对数据库表中数据进行索引,下面基于MySQL数据库实现建立索引. 首先,需要设计你的schema,最主要的工作是,将数据库表中字段映射为Lucene索引(Solr直接使用Lucene的索引格式和数据)的Field,从而将数据表中的一条记录映射为Lucene中的Document,然后进行索引.另外,在

Win7系统如何使用CMD命令导出MySQL表数据

  Win7系统如何使用CMD命令导出MySQL表数据         操作方法: 1.打开始菜单中运行命令提示符: 2.然后输入命令: 假设导出tomtopportal数据库下的t_article_base表数据到E:/xitongcheng.com.txt文件.执行命令如下: mysqldump -h localhost -u root -p tomtopportal t_article_base >e:xitongcheng.com.txt 3.命令行指示输入mysql的root用户密码(

Python增量循环删除MySQL表数据的方法_python

需求场景: 有一业务数据库,使用MySQL 5.5版本,每天会写入大量数据,需要不定期将多表中"指定时期前"的数据进行删除,在SQL SERVER中很容易实现,写几个WHILE循环就搞定,虽然MySQL中也存在类似功能,怎奈自己不精通,于是采用Python来实现 话不多少,上脚本: # coding: utf-8 import MySQLdb import time # delete config DELETE_DATETIME = '2016-08-31 23:59:59' DELE

mysql数据库的全量备份

mysql数据库的全量备份,包括数据和结构.保存最新的10次备份. 准备工作: 创建备份主目录 mkdir  /backup 一:编写脚步文件mysql_backup.sh #!/bin/sh # mysql_backup.sh: 备份mysql数据信息,并且只保留最新的10份. #数据库用户名 db_user="root" #数据库密码 db_passwd="imsuser" #数据库IP db_host="localhost" #数据库名 d

教你实现MySQL表数据迁移自动化

一.背景 之前我写过关于SQL Server的数据迁移自动化的文章:SQL Server 数据库迁移偏方,在上篇文章中设计了一张临时表,这个临时表记录搬迁的配置信息,用一个存储过程读取这张表进行数据的迁移,再由一个Job进行迭代调用这个存储过程. 在这次MySQL的实战中,我的数据库已经做了4个分片,分布在不同的4台机器上,每台机器上的数据量有1.7亿(1.7*4=6.8亿),占用空间260G(260*4=1040G),这次迁移的目的就是删除掉一些历史记录,减轻数据库压力,有人说这为什么不使用表

对比MySQL表数据内容方式汇总

一. mysql自带的checksum命令: 可在不同服务器通过checksum值对比两张表是否一致, 加上EXTENDED参数表示逐行扫描, 结果更为可靠; 执行过程会给表加上System lock, 参考:https://dev.mysql.com/doc/refman/5.7/en/checksum-table.html mysql> checksum table item_sku EXTENDED; +---------------+------------+ | Table | Che

VMware 虚拟化编程(11) — VMware 虚拟机的全量备份与增量备份方案

目录 目录 前文列表 全量备份数据的获取方式 增量备份数据的获取过程 前文列表 VMware 虚拟化编程(1) - VMDK/VDDK/VixDiskLib/VADP 概念简析 VMware 虚拟化编程(2) - 虚拟磁盘文件类型详解 VMware 虚拟化编程(3) -VMware vSphere Web Service API 解析 VMware 虚拟化编程(4) - VDDK 安装 VMware 虚拟化编程(5) - VixDiskLib 虚拟磁盘库详解之一 VMware 虚拟化编程(6)

Linux系统mysql5.7数据库的全量备份和增量备份shell实例

曾经之前也有写过类似mysql全量和增量备份脚本,不过过于简单.昨天晚上给公司线上服务器写了个针对mysql5.7的,相对来讲更为优化的一个实例. 注:这个脚本仅仅适合小型数据库,不适合中大型数据库.毕竟是逻辑备份方式,数据库过大导入会比较慢,建议采用innobackupex方式备份,包括我自己服务器也是采用的innobackupex. 全量备份脚本: #!/bin/bash #bak mysql all # v1.0 #2016.8.4 TIME=`date +%Y%m%d_%H%M%S` L

mysql两表数据全表复制方法

声名:a,b ,都是表--b表存在(两表结构一样) insert into b select * from a若两表只是有部分(字段)相同,则insert into b(col1,col2,col3,col4,...) select col1,col2,col3,col4,... from a where...把表a插入到表b中去. --b表不存在 select * into b from a //select (字段1,字段2,...) into b from a