项目总结:数据迁移测试

第一次在项目中遇到数据迁移测试,从一头雾水开始做起,绕了不少弯路,趁着项目还没有结束,赶紧总结一下,适时调整思路。

  一、没有需求文档=没有测试需求?

  这次项目的数据迁移,SA是缺失的,但是测试需求还是可以跟开发人员沟通确认:

  ● 迁移的是哪几张表?

  ● 迁移表之间是否存在关联关系,如何关联?

  ● 迁移表中,那些字段的数据需要迁移,那些字段不需要迁移,不做迁移是否会隐藏风险?

  ● 迁移表的表结构在新老库中是否相同,包括:

    是否存在新表的必填字段而旧表没有,应该用什么数据填写?

    是否存在旧表数据在新表中没有对应字段存储,如何处理?

    是否存在新旧表中字段类型、长度不一致,能否正确转换?

  ● 需迁移的数据共计多少条记录?

  ● 旧表中字段是否存储特定值?(迁移后需关注新旧表中存储数据是否一致)

  二、从业务层面检查,保证迁移数据可用性

  确认迁移需求之后,直接检查数据库表及其数据是发现数据迁移缺陷最快捷的一个方法,但是有一些缺陷还是不能单纯通过这种方式发现的,还是需要从业务层面去检查,而且对于迁移数据也需要保证其在业务流程上是可用的——即:迁移前,这些数据能支持完成什么功能,不支持什么功能,迁移后应该也是一致的。所以,除了检查数据库表及其数据,还需要挑选迁移数据,去回归这些相应的功能,其测试范围可以侧重以下几点:

  1、该数据支持完成的功能

  2、改数据不支持完成的功能

  3、涉及到跨子系统的功能(需要关联系统维护相关数据,这是不能通过数据库检视来发现问题的,必须跑业务流程才能验证)

  4、涉及到查询表数据,尤其是查询多表的功能(尤其是报表功能,还有一些查询回显信息的功能)

  ——暂时接触到和想到的就是这些,后续有补充再更新吧。

====================================分割线================================

最新内容请见作者的GitHub页:http://qaseven.github.io/

时间: 2024-10-10 13:57:12

项目总结:数据迁移测试的相关文章

数据迁移类测试策略

前言 前段时间做了一次数据迁移,针对数据迁移类型的测试方法进行了一些了解和总结,以下工具愚公移山和精卫为淘宝开发的工具,已使用于多个产品.项目中,质量有保障. 一.工具介绍 1.愚公移山 概述: 数据的动态迁移,可完成数据全量.增量迁移,进行数据比对,保证数据的正确:目前较多运用在数据迁移中,已经被很多团队使用,是很成熟可靠的数据迁移工具 适用范围: 可支持:支持oracle和mysql,分库分表,实时同步,数据比对 不支持:涉及到外部依赖,迁移规则非常复杂的数据 性能情况: 没有对愚公进行压测

重置EntityFramework数据迁移到洁净状态

前言 翻译一篇有关EF数据迁移的文章,以备日后所用,文章若有翻译不当的地方请指出,将就点看,废话少说,看话题.[注意]:文章非一字一句的翻译,就重要的问题进行解释并解决. 话题引入 无法确定这种场景是否是大家也遇见过并且是频繁出现的,这种场景通常出现在需要对大量的数据进行迁移,导致EF数据迁移使得EF迁移状态呈现出一种不可用的状态,最终出现在新的数据迁移上无法进行更新数据库或者回滚.也就是说当进行数据迁移时有可能导致数据库和EF架构出现不一致的状态即所谓的异步,接下来我们将一步一步来解决这个问题

阿里巴巴开源项目: 阿里巴巴去Oracle数据迁移同步工具

背景 08年左右,阿里巴巴开始尝试MySQL的相关研究,并开发了基于MySQL分库分表技术的相关产品,Cobar/TDDL(目前为阿里云DRDS产品),解决了单机Oracle无法满足的扩展性问题,当时也掀起一股去IOE项目的浪潮,愚公这项目因此而诞生,其要解决的目标就是帮助用户完成从Oracle数据迁移到MySQL上,完成去IOE的第一步. 项目介绍 名称: yugong 译意: 愚公移山 语言: 纯java开发 定位: 数据库迁移 (目前主要支持oracle -> mysql/DRDS) 项目

codefirst-EF环境,CodeFirst模式开发,同项目多个数据库,如何设定自动数据迁移

问题描述 EF环境,CodeFirst模式开发,同项目多个数据库,如何设定自动数据迁移 如题,我的整个工程比较复杂,有多个数据库,统一放在名为DataBase的类库项目下,供其他项目调用. 我的应用项目也有好几个,我想对每个项目单独设置自动迁移数据,现在发现有困难. 因为每次启动一个数据迁移,都是在同一个Migrations文件夹下,这个没有给我自定义名字的地方.并且启动文件都是Configuration.cs这个类,也没有给我自定义名字的地方. 也就是说,我一次只能设定一个数据库进行自动迁移.

MaxCompute跨Region数据迁移指导手册

概述 大数据计算服务(MaxCompute,原名ODPS)是一种快速.完全托管的 GB/TB/PB 级数据仓库解决方案.MaxCompute 为用户提供了完善的数据导入导出方案以及多种经典的分布式计算模型,能够更快速的解决海量数据计算问题,有效降低企业成本,并保障数据安全. 随着MaxCompute的多Region部署,一些用户可能需要把MaxCompute的应用从老的Region上迁移到和自己的业务系统相同的Region上来,从而在数据传输上获得更好的性能并减少数据传输费用.本指导手册主要聚焦

ODPS到ODPS数据迁移指南

1.工具选择与方案确定 目前,有两种方式可用于专有云环境下的从MaxCompute到MaxCompute整体数据迁移. (1)使用DataX工具进行迁移,迁移所需的作业配置文件及运行脚本,可用DataX批量配置工具来生成: (2)通过大数据开发套件(DataIDE)- 数据开发进行迁移,这种方式可选择界面向导模式逐步配置,操作简单容易上手: 2.具体实施 2.1使用DataX工具  这种场景需要先从源MaxCompute中导出元数据DDL,在目标MaxCompute中初始化表,然后借助DataX

ODPS到ADS数据迁移指南

数据同步节点任务是阿里云大数据平台对外提供的稳定高效.弹性伸缩的数据同步云服务.ODPS到ADS数据迁移采用CDP的方式同步数据. 1.     创建源和目标库表结构 初次在同步数据前需要在源库和目标库创建好相应的表结构. 2.     配置数据源 2.1源数据源配置-ODPS 1.登录Base管控台,单击顶部菜单栏中的项目管理,并选择相应的项目.   2.进入数据源配置,单击新增数据源. 3. 在新建数据源弹出框中,选择数据源类型为ODPS;   配置项说明(上图中带*的都必须

DRDS到ODPS数据迁移指南

数据同步节点任务是阿里云大数据平台对外提供的稳定高效.弹性伸缩的数据同步云服务.DRDS到ODPS数据迁移采用CDP的方式同步数据. 开始DRDS到ODPS数据迁移 1. 创建源和目标库表结构 初次在同步数据前需要在源库和目标库创建好相应的表结构. 2.  配置数据源 2.1源数据源配置-DRDS    1.登录Base管控台,单击顶部菜单栏中的项目管理,并选择相应的项目. 2.进入数据源配置,单击新增数据源. 3. 在新建数据源弹出框中,选择数据源类型为DRDS; 配置项说明(上图中带*的都必

kettle 数据迁移 (转)

最近在公司搞一个项目重构迁移问题,旧项目一直在线上跑,重构的项目则还没上线.重构之后数据库表结构,字段,类型等都有变化,而且重构的数据库由oracl改为mysql.这样就设计到数据迁移问题,别人推荐下用了kettle.由于资料比较少,刚开始搞了半天没成功过一次.现在终于有点开窍了,记录下以备后用,同时给用到的同学一点帮助也好,现在还是刚用的第二天,所以写的太浅显,望莫耻笑. 1.数据类型转换 由于大多数的数据结构都差不多,所以大多转换就如下图所示: 如果有字段变化在在"字段选择"中做映