如何同步TableStore数据到OSS

物联网

场景描述

L公司是一家物联网解决方案提供商,为不同物联网设备生产商提供物联网解决方案,这些物联网设备涉及众多产品领域,包括空调,摄像头,门锁,位置传感器,净化器,扫地机器人,各种工业传感器等等,这些设备都需要实时上传数据到存储系统保存,然后分析系统会实时计算,按照预定义逻辑触发报警或者生成报表。

物联网设备信息和产生的时序数据很适合用Table Store存储,而且能提供非常便捷的通道,用来做分析,具体可以参考这篇文章:如何高效存储海量GPS数据。

生产的每一个设备都会有一个设备ID,唯一标识这个设备,并且还存在一些属性值,比如地理位置,属于哪个生产商,属于哪个用户,目前的配置参数等等,这些值相当于这个设备的身份证和户口本。这些数据非常重要,不能容忍丢失,要有接近100%的数据可靠性保证。

核心数据备份

要保证数据尽量高的可靠性,需要从两个方面保证:

存储系统本身的数据可靠性:Table Store基于共享存储,提供99.99999999%的数据可靠性保证,在业界属于非常非常高的标准了。

误操作后能恢复数据 :误操作永远都无法避免,要做的是当误操作发生的时候能尽快恢复,那么就需要有备份数据存在。对于备份,有两种方向,一个是部署同城或异地灾备,这种代价高费用高,更多的用于社会基础信息或金融信息。另一种是将数据备份到另一个价格更低廉的系统,当万一出现误操作的时候,可以有办法恢复就行。一般选择文件存储系统,比如阿里云OSS。

冷数据保存

物联网设备产生的数据是一种时序数据,基于时间的一序列数据点,这些数据的价值和时间成绝对正比,越新的数据价值越大,访问也越大,一般六个月之前的数据的访问量会非常非常低。如果将六个月之前的老数据和最新的数据存储在同一个系统上,那么就不是很划算。这时候,就需要把早一些的数据(比如六个月之前)的数据保存到更便宜的文件存储系统上,比如阿里云OSS。

目标

基于上述两个原因,有不少用户就希望能把Table Store的数据可以备份到OSS上,这样比较热,价值高的数据在Table Store上供用户实时查询或者实时分析、计算等,然后再拷贝一份数据到OSS,提供备份,以及冷数据存储。

一般是账号注册数据等核心数据用OSS来做备份,时序数据用OSS来做冷数据存储,有时候也会直接实时拷贝一份Table Store中的数据存储到OSS,同时提供灾备和冷数据存储功能。

针对上述问题,Table Store团队联合数据集成(CDP)团队上线了近实时的数据同步(备份)方案,用户只需要将数据写入Table Store,Table Store会负责将数据在10分钟内自动发送给OSS存储。

相关产品

Table Store:阿里云分布式NoSQL数据库,专注于海量数据的存储服务,目前单表可支持10PB级,10万亿行以上的数据量,且数据量增大后性能仍然保持稳定。Table Store Stream功能是一种增量实时通道服务,类似于MySQL的binlog,可以通过Stream接口实时读取到最新的变化数据(Put/Update/Delete)。

数据集成 :阿里云数据管理平台,支持数据同步等众多数据功能。

OSS:阿里云对象存储服务,提供海量、安全、低成本、高可靠的云存储服务,提供99.99999999%的数据可靠性。使用RESTful API 可以在互联网任何位置存储和访问,容量和处理能力弹性扩展,多种存储类型供选择全面优化存储成本。

三种产品在方案中的角色如下:

产品 Table Store 数据集成 OSS
角色 数据存储 数据同步通道 备份

限制

由于Table Store和OSS不是完全对等的产品,所以如果需要将数据导入OSS,那么在使用Table Store的时候有一些注意的地方:

  • 整行写入:

    • 目前是使用Table Store Stream功能,需要每次写入Table Store的数据是整行数据,目前类似物联网数据的时序数据写入方式都是整行写入,后续基本无修改。
  • 同步延时:
    • 目前使用的是周期调度,每隔5分钟调度一次,再加上插件中有5分钟延迟,同步总延迟在5~10分钟。
  • OSS的文件数:
    • 每次导出任务都会在OSS上生成一个新的文件,为了避免文件数过多,可以将同步周期延长,比如一个小时。具体时间需要根据自己业务特点确定。

使用方式

  • 写:

    • 直接写入Table Store,
  • 读:
    • 直接读取Table Store。
  • 备份:
    • 自动备份。
  • 恢复:
    • 使用数据集成(OSSreader + OTSwriter)重新写会Table Store。

备份

账号注册等核心数据 :这类数据的特点是会经查更新,但数据量不大,对于这种类型的数据可以定期打snapshot,就是每天定时把这个表的数据全量导出到OSS保存。当发生误操作删除数据后,可以直接从OSS恢复全量。另一种做法就是实时通过Table Store Stream同步到OSS,但是这一种方式目前无法处理删除。所以,可以两者结合使用,或者直接使用全量导出。

冷数据保存

传感器时序数据 : 这类数据的特点是每次都是新写入,基本无修改,这类数据可以使用Table Store Stream功能实时同步到OSS中。然后对Table Store中的数据设置生命周期,比如半年,等到半年后,Table Store中超过半年的数据会被系统自动销毁,这时候数据只会在OSS中存在。

Table Store配置

无须配置

OSS配置

无需配置

数据集成

1. 创建数据源(可选)

  1. 如果已经创建了Table Store的数据源,则可以跳过这一步。
  2. 如果不希望创建数据源,也可以在配置页面配置相应的endpoint,instanceName,AccessKeyID和AccessKeySecret。如果希望创建,则按照下面步骤操作。
  3. 登录阿里云大数据开发套件:数据源地址。
  4. 单击左侧 离线同步 > 数据源
  5. 在数据源配置页面,选择右上角 新增数据源 ,会有一个弹出框。
  6. 按照说明填写:
    • 数据源名称:填写一个数据源标识符,比如车联网。
    • 数据源描述:填入描述符,比如:车联网GPS数据存储。
    • 数据源类型:选择 ots ,ots是Table Store曾用名。
    • OTS Endpoint:填入TableStore 实例页面的实例地址,如果Table Store的实例和目标产品(比如OSS)在同一个region,则可以填入私网地址,否则需要填入公网地址,不能填入VPC地址。
    • OTS 实例ID:填入Table Store的实例名称。
    • Access Id:填入阿里云网站的AccessKeyID。
    • Access Key:填入阿里云网站AccessKeyID对应的AccessKeySecret。
    • 点击 测试连通性 ,如果成功则会在右上角提示:测试连接成功。 如果失败,点击endpoint是否配置正确,如果仍然无法解决,提工单联系数据集成。
    • 填好后的页面类似下面这样:
  7. 单击确定,数据源创建成功,此时在数据源页面会出现一个新的数据源信息;
  8. 目前Table Store和OSS都支持新增数据源。在创建OSS的数据源的时候要注意:OSS的endpoint地址不包括bucketName,具体参考:OSS endpoint介绍。

2. 创建导出任务

  1. 单击数据集成地址,进入数据集成的页面,会出现模式选择:
  2. 单击 脚本模式 ,弹出一个 导入模板 配置。
  3. 在导入模板配置里面:
    1. 来源类型:OTS Stream(如果是增量同步,选择OTS Stream;如果是全量导出,选择OTS)
    2. 目标类型:OSS
    3. 下述图中选择了OTS Stream,表示增量同步
  4. 单击确认,则进入配置界面。

3. 完善配置项

在配置界面,已经提前嵌入了OTSStreamReader和OSSWriter的模板,每一项配置后面都做了解释。这里我们主要介绍增量同步的配置,会详细介绍OTSStreamReader的配置,如果是全量导出,则会使用OTSReader,OTSReader的配置可以参考:全量导出的OTSReader配置项。

{
  "type": "job",
  "version": "1.0",
  "configuration": {
    "setting": {
      "errorLimit": {
        "record": "0"  # 允许出错的个数,当错误超过这个数目的时候同步任务会失败。
      },
      "speed": {
        "mbps": "1",  # 每次同步任务的最大流量。
        "concurrent": "1"   # 每次同步任务的并发度。
      }
    },
    "reader": {
      "plugin": "otsstream",  # Reader插件的名称。
      "parameter": {
        "datasource": "", # Table Store的数据源名称,如果有此项则不再需要配置endpoint,accessId,accessKey和instanceName。
        "dataTable": "", # TableStore中的表名。
        "statusTable": "TableStoreStreamReaderStatusTable", # 存储TableStore Stream状态的表,一般不需要修改。
        "startTimestampMillis": "",  # 开始导出的时间点,由于是增量导出,需要循环启动此任务,则这里每次启动的时候的时间都不一样,这里需要设置一个变量,比如${start_time}。
        "endTimestampMillis": "",  # 结束导出的时间点。这里也需要设置一个变量,比如${end_time}。
        "date": "yyyyMMdd",  # 导出哪一天的数据,功能和startTimestampMillis、endTimestampMillis重复,这一项需要删除。
        "mode": "single_version_and_update_only", # TableStore Stream导出数据的格式,目前需要设置成:single_version_and_update_only。如果配置模板中没有则需要增加。
        "column":[  # 需要导出TableStore中的哪些列到OSS中去,如果配置模板中没有则需要增加,具体配置个数由用户自定义设置
                 {
                    "name": "uid"  # 列名,这个是Table Store中的主键
                 },
                 {
                    "name": "name"  # 列名,这个是Table Store中的属性列。
                  },
        ],
        "isExportSequenceInfo": false, # single_version_and_update_only 模式下只能是false。
        "maxRetries": 30 # 最大重试次数。
      }
    },
    "writer": {
      "plugin": "oss", # Writer插件的名称
      "parameter": {
        "datasource": "", # OSS的数据源名称
        "object": "",  # 最后备份到OSS的文件名的前缀,建议Table Store实例名/表名/date。比如"instance/table/{date}"
        "writeMode": "truncate", # 支持truncate|append|nonConflict,truncate会清理已存在的同名文件;append会加到已存在的同名文件内容后面;nonConflict会报错当同名文件存在时。
        "fileFormat": "csv", # 文件类型
        "encoding": "UTF-8", # 编码类型
        "nullFormat": "null", # 当遇到控制时,在文本中如何表示
        "dateFormat": "yyyy-MM-dd HH:mm:ss", # # 时间格式
        "fieldDelimiter": "," # 每一列的分隔符
      }
    }
  }
}

更详细的配置项可以参考:

  • OTS Reader:配置详解
  • OTS Stream Reader:配置详解
  • OSS Writer: 配置详解

4. 保存任务

  1. 点击上部的 保存 按钮,则弹出一个对话框,输入任务名称后按确定即可。
  2. 保存后会提示:

5. 运行任务(测试)

  1. 点击配置内容上部的 运行
  2. 弹出一个配置框,这里需要设置配置文件里的变量值:
  3. 设置完成后,点击 确定 后就会开始运行任务,运行结束后到OSS控制台检查是否备份文件成功。
  4. 如果测试运行没问题,则可以正式提交任务了。

6. 提交任务

  1. 点击配置内容上部的 提交
  2. 配置调度参数:
    • 调度类型:周期调度
    • 自动重跑:√
    • 生效日期:默认值
    • 调度周期:分钟
    • 起始时间:默认值
    • 时间间隔:5分钟
    • 跨周期依赖:可以选择:自依赖,等待上一调度周期结束,才能继续运行。
    • start_time:$[yyyymmddhh24miss-10/24/60],表示调度时间-10分钟。
    • end_time:$[yyyymmddhh24miss-5/24/60],表示调度时间-5分钟。
    • date:${bdp.system.bizdate}:表示调度日期
  3. 提交任务后,原有任务处于:只读状态。

7. 查看任务

  1. 前往 运维中心 > 任务列表 > 周期任务 ,就可以看到刚刚创建的同步任务。
  2. 隔一天后,可以前往 运维中心 > 任务运维 > 周期实例 ,就可以看到当天需要运行的每一个实例,同时可以看到每个实例的状态以及日志。

8. 验证结果

  1. 周期任务是从下一天的00:00点开始执行。
  2. 等执行完一个任务后,就可以到OSS控制台查看是否生成了新的文件,文件内容是否符合预期。

下一步计划

至此,TableStore数据通过数据集成同步到OSS的配置完成了,延迟在5分钟到10分钟之间。
对于备份场景,这种延迟基本能满足大部分用户的需求了,但为了体验更佳,后面还会继续优化,主要会在两方面:

  • 配置方式上,会使用向导模式,配置更简单。
  • 时效性上,会尽量达到秒级延迟。
  • 在使用中有任何问题,可以加入表格存储钉钉技术交流群:11789671。
  • 更多的Table Store使用场景和通道服务,可以参考:Table Store进阶之路
时间: 2024-10-30 04:05:08

如何同步TableStore数据到OSS的相关文章

如何同步TableStore数据到Elasticsearch

图书馆 图书馆Q是一家大型图书馆,图书馆藏书众多,纸质图书600多万册,电子图书7000多万册,总数有八千多万册,这些图书之前都是人工检索维护的,现在需要做一个系统来存储管理这些图书信息. 需求如下: 图书总量目前八千多万册,考虑到未来二十年的增长,需要系统能支持一亿的存储量. 图书信息很重要,不能接受丢失发生. 图书的名字和作者名字需要支持模糊搜索. 每本书的属性最多有一百多个,且不固定,不同类型的图书的属性列差异较大.且未来可能会新增属性列. 根据上面这些需求特点,要完成这个管理系统,需要两

使用DataX同步MaxCompute数据到TableStore(原OTS)优化指南

概述 现在越来越多的技术架构下会组合使用MaxCompute和TableStore,用MaxCompute作大数据分析,计算的结果会导出到TableStore提供在线访问.MaxCompute提供海量数据计算的能力,而TableStore提供海量数据高并发低延迟读写的能力. 将MaxCompute内数据导出至TableStore,目前可选的几种主要途径包括: 自己编写工具:使用MaxCompute SDK通过Tunnel读取表数据,再通过TableStore SDK再写入数据. DataX:自己

使用Firefox火狐书签同步功能 方便异地同步书签数据

由于工作学习的需要,很多朋友们经常使用的电脑不止是一台,如果将一个电脑中收藏的书签网页一个一个的添加到其他电脑中,将是一个非常麻烦的事情,Firefox火狐书签同步功能能方便的帮助我们异地同步书签数据,下面为大家介绍firefox火狐书签同步功能的使用方法(以最新的Firefox4为例): Firefox 4正式版下载:点击下载 火狐书签同步功能使用方法: 1,点击火狐浏览器左上端的firefox--选项--同步: 由Firefox的介绍可知,此同步功能不仅可以同步书签,还可以同步历史记录,密码

Win8.1在不同电脑之间同步应用数据以便继续此前的工作

  操作方法 1.从屏幕右侧向内轻扫,然后点击"设置". (如果你使用鼠标,请将鼠标指针指向屏幕右下角并向上移动,然后单击"设置".) 2.点击或单击"更改电脑设置". 3..点击或单击 OneDrive,然后点击或单击"同步设置". 4.在"应用设置"下,选择同步"应用"和"应用数据". 这里有一点必须注意,要能够在不同Win8.1系统的设备上同步应用数据,前提是这

同步远程数据到本地数据库后的删除操作

问题描述 同步远程数据到本地数据库后的删除操作 同步远程数据到本地数据库后,远程数据发生变动,比如删除,那么怎么删除本地的那条数据呢. 情景: 同步淘宝api商品后保持在本地,如果卖家删除了某个商品后,本地怎么去实现同样的操作,删除那条已经在远程端被删除的数据呢! 知道思路的大侠请告知,在此小弟谢过.(j2ee开发) 解决方案 问题的关键是你怎么知道远程的数据被删除了?是淘宝api提供这个功能还是需要定期访问远程来判断商品是否还存在?知道数据被删除,那本地删除应该不是什么问题 解决方案二: ht

nodejs怎么同步查询数据

问题描述 nodejs怎么同步查询数据 查询数据库返回数据 function get_result(mac, callback) { db.query('SELECT device_id from terminal_device WHERE mac=?', [mac], function (err, rows) { if (err) { return callback(err, rows); } callback(null, rows); }); }; 调用上面方法 var result = g

spring integration同步数据库数据

 需求为:当客户已有系统的数据被同步到我方数据库后,若再有新数据,只同步新数据到我方数据库. 解决:因为客户的业务表是不能变动的,我方在客户数据库中新建一状态表,记录哪些数据被更新过. 当客户业务表有新数据插入时,用触发器将新数据id插入到状态表.   为方便实例:业务表pp,状态表status 结构为: pp: CREATE TABLE `pp` (   `name` varchar(255) default NULL,   `address` varchar(255) default NUL

【SSH网上商城项目实战15】线程、定时器同步首页数据(类似于CSDN博客定期更新排名)

版权声明:尊重博主原创文章,转载请注明出处哦~http://blog.csdn.net/eson_15/article/details/51387378 目录(?)[+]         上一节我们做完了首页UI界面,但是有个问题:如果我在后台添加了一个商品,那么我必须重启一下服务器才能重新同步后台数据,然后刷新首页才能同步数据.这明显不是我们想要的效果,一般这种网上商城首页肯定不是人为手动同步数据的,那么如何解决呢?我们需要用到线程和定时器来定时自动同步首页数据. 1. Timer和Timer

tomcat-Tomcat在哪些情况下可以同步后台数据?

问题描述 Tomcat在哪些情况下可以同步后台数据? Tomcat在哪些情况下可以同步后台数据? Tomcat在哪些情况下可以同步后台数据? 解决方案 百度 热同步~ 虽然我还没有测试 解决方案二: lz提问采纳的有点不及时. tomcat只是一个应用服务器,它可以执行任意的代码,你的代码可以做任何的事情. 用jsp php等编写程序同步后台数据,用tomcat承载运行就可以了. 解决方案三: 这个是做不到的,因为服务器启动的时候就进行了类加载,后面改是不会起作用的 你说的有时候同步了,事实 上