详解开源大数据引擎Greenplum的架构和技术特点

Greenplum的MPP架构

Greenplum(以下简称GPDB)是一款开源数据仓库。基于开源的PostgreSQL改造,主要用来处理大规模数据分析任务,相比Hadoop,Greenplum更适合做大数据的存储、计算和分析引擎。

GPDB是典型的Master/Slave架构,在Greenplum集群中,存在一个Master节点和多个Segment节点,其中每个节点上可以运行多个数据库。Greenplum采用shared nothing架构(MPP)。典型的Shared Nothing系统会集数据库、内存Cache等存储状态的信息;而不在节点上保存状态的信息。节点之间的信息交互都是通过节点互联网络实现。通过将数据分布到多个节点上来实现规模数据的存储,通过并行查询处理来提高查询性能。每个节点仅查询自己的数据。所得到的结果再经过主节点处理得到最终结果。通过增加节点数目达到系统线性扩展。

  图1 GPDB的基本架构

如上图1为GPDB的基本架构,客户端通过网络连接到gpdb,其中Master Host是GP的主节点(客户端的接入点),Segment Host是子节点(连接并提交SQL语句的接口),主节点是不存储用户数据的,子节点存储数据并负责SQL查询,主节点负责相应客户端请求并将请求的SQL语句进行转换,转换之后调度后台的子节点进行查询,并将查询结果返回客户端。

Greenplum Master

Master只存储系统元数据,业务数据全部分布在Segments上。其作为整个数据库系统的入口,负责建立与客户端的连接,SQL的解析并形成执行计划,分发任务给Segment实例,并且收集Segment的执行结果。正因为Master不负责计算,所以Master不会成为系统的瓶颈。

Master节点的高可用(图2),类似于Hadoop的NameNode HA,如下图,Standby Master通过synchronization process,保持与Primary Master的catalog和事务日志一致,当Primary Master出现故障时,Standby Master承担Master的全部工作。

  图2 Master节点的高可用Segments

Greenplum中可以存在多个Segment,Segment主要负责业务数据的存储和存取(图3),用户查询SQL的执行,每个Segment存放一部分用户数据,但是用户不能直接访问Segment,所有对Segment的访问都必须经过Master。进行数据访问时,所有的Segment先并行处理与自己有关的数据,如果需要关联处理其他Segment上的数据,Segment可以通过Interconnect进行数据的传输。Segment节点越多,数据就会打的越散,处理速度就越快。因此与Share All数据库集群不同,通过增加Segment节点服务器的数量,Greenplum的性能会成线性增长。

  图3 Segment负责业务数据的存取

每个Segment的数据冗余存放在另一个Segment上,数据实时同步,当Primary Segment失效时,Mirror Segment将自动提供服务,当Primary Segment恢复正常后,可以很方便的使用gprecoverseg -F工具来同步数据。

Interconnect

Interconnect是Greenplum架构中的网络层(图4),是GPDB系统的主要组件,默认情况下,使用UDP协议,但是Greenplum会对数据包进行校验,因此可靠性等同于TCP,但是性能上会更好。在使用TCP协议的情况下,Segment的实例不能超过1000,但是使用UDP则没有这个限制。

  图4 Greenplum网络层InterconnectGreenplum,新的解决方案

前面介绍了GPDB的基本架构,让读者对GPDB有了初步的了解,下面对GPDB的部分特性描述可以很好的理解为什么选择GPDB作为新的解决方案。

丰富的工具包,运维从此不是事儿

对比开源社区的其他项目在运维上的困难,GPDB提供了丰富的管理工具,图形化的web监控页面,帮助管理员更好的管理集群,监控集群本身以及所在服务器的运行状况。

最近的公有云集群迁移过程中,impala总查询段达到100的时候,系统开始变得极不稳定,后来在外援的帮助下发现是系统内核本身的问题,在恶补系统内核参数的同时,发现GPDB的工具也变相的填充了我们的短板,比如提供了gpcheck和gpcheckperf等命令,用以检测GPDB运行所需要的系统配置是否合理以及对相关硬件做性能测试,如下,执行gpcheck命令后,检测sysctl.conf中参数的设置是否符合要求,如果对参数的含义感兴趣,可以自行百度学习。

  (点击可查看高清版)

另外,在安装过程中,用其提供的gpssh-exkeys命令打通所有机器免密登录后,可以很方便的使用gpassh命令对所有的机器批量操作,如下图演示了在master主机上执行gpssh命令后,在集群的五台机器上批量执行pwd命令。

  (点击可查看高清版)

诸如上述的工具GPDB还提供了很多,比如恢复segment节点的gprecoverseg命令,比如切换主备节点的gpactivatestandby命令,等等。这类工具的提供让集群的维护变得很简单,当然我们也可以基于强大的工具包开发自己的管理后台,让集群的维护更加的傻瓜化。

查询计划和并行执行,SQL优化利器

查询计划包括了一些传统的操作,比如:扫表、关联、聚合、排序等。另外,GPDB有一个特定的操作:移动(motion)。移动操作涉及到查询处理期间在Segment之间移动数据。

下面的SQL是TPCH中Query 1的简化版,用来简单描述查询计划。

  (点击可查看高清版)

执行计划执行从下至上,可以看到每个计划节点操作的额外信息。

Segment节点扫描各自所存储的customer表数据,按照过滤条件生成结果数据,并将自己生成的结果数据依次发送到其他Segment。

每个Segment上,orders表的数据和收到的rs做join,并把结果数据返回给master

上面的执行过程可以看出,GPDB是将结果数据给每个含有orders表数据的节点都发了一份。为了最大限度的实现并行化处理,GPDB会将查询计划分成多个处理步骤。在查询执行期间,分发到Segment上的各部分会并行的执行一系列的处理工作,并且只处理属于自己部分的工作。重要的是,可以在同一个主机上启动多个postgresql数据库进行更多表的关联以及更复杂的查询操作,单台机器的性能得到更加充分的发挥。

如何查看执行计划?

如果一个查询表现出很差的性能,可以通过查看执行计划找到可能的问题点。

计划中是否有一个操作花费时间超长?

规划期的评估是否接近实际情况?

选择性强的条件是否较早出现?

规划期是否选择了最佳的关联顺序?

规划其是否选择性的扫描分区表?

规划其是否合适的选择了Hash聚合与Hash关联操作?

高效的数据导入,批量不再是瓶颈

前面提到,Greenplum的Master节点只负责客户端交互和其他一些必要的控制,而不承担任何的计算任务。在加载数据的时候,会先进行数据分布的处理工作,为每个表指定一个分发列,接下来,所有的节点同时读取数据,根据选定的Hash算法,将当前节点数据留下,其他数据通过interconnect传输到其他节点上去,保证了高性能的数据导入。通过结合外部表和gpfdist服务,GPDB可以做到每小时导入2TB数据,在不改变ETL流程的情况下,可以从impala快速的导入计算好的数据为消费提供服务。

使用gpfdist的优势在于其可以确保再度去外部表的文件时,GPDB系统的所有Segment可以完全被利用起来,但是需要确保所有Segment主机可以具有访问gpfdist的网络。

其他

GPDB支持LDAP认证,这一特性的支持,让我们可以把目前Impala的角色权限控制无缝的迁移到GPDB。

GPDB基于Postgresql 8.2开发,通过psql命令行工具可以访问GPDB数据库的所有功能,另外支持JDBC、ODBC等访问方式,产品接口层只需要进行少量的适配即可使用GPDB提供服务。

GPDB支持基于资源队列的管理,可以为不同类型工作负载创建资源独立的队列,并且有效的控制用户的查询以避免系统超负荷运行。比如,可以为VIP用户,ETL生产,任性和adhoc等创建不同的资源队列。同时,支持优先级的设置,在并发争用资源时,高优先级队列的语句将可以获得比低优先级资源队列语句更多的资源。

最近在对GPDB做调研和测试,过程中用TPCH做性能的测试,通过和网络上其他服务的对比发现在5个节点的情况下已经有了很高的查询速度,但是由于测试环境服务器问题,具体的性能数据还要在接下来的新环境中得出,不过GPDB基于postgresql开发,天生支持丰富的统计函数,支持横向的线性扩展,内部容错机制,有很多功能强大的运维管理命令和代码,相比impala而言,显然在SQL的支持、实时性和稳定性上更胜一筹。

本文只是对Greenplum的初窥,接下来更深入的剖析以及在工作中的实践经验分享也请关注DA的wiki。更多的关于Greenplum基本的语法和特性,也可以参考PostgreSQL的官方文档。

本文转自d1net(转载)

时间: 2024-11-03 05:09:56

详解开源大数据引擎Greenplum的架构和技术特点的相关文章

详解IBM大数据应用五大方向

摘要:IBM全球副总裁王阳博士详解IBM大数据应用的五大方向:探索大数据发现和业务相关的兴趣点.全面了解客户优化每次客户互动.分析海量机器数据提高运营效率.利用IT新技术从现有数据仓库中获得更多价值并降低成本.分析大数据所有类型和来源强化传统安全方案. IBM公司2013年中在北京正式发布了PureData System for Hadoop系统.新增BLU加速技术的DB2  10.5.物联网数据分析平台MessageSight以及定制Watson (Watson Engagement  Adv

开源大数据引擎:Greenplum 数据库架构分析

Greenplum 数据库是最先进的分布式开源数据库技术,主要用来处理大规模的数据分析任务,包括数据仓库.商务智能(OLAP)和数据挖掘等.自2015年10月正式开源以来,受到国内外业内人士的广泛关注.本文就社区关心的Greenplum数据库技术架构进行介绍. 一. Greenplum数据库简介 大数据是个炙手可热的词,各行各业都在谈.一谈到大数据,好多人认为就是hadoop.实际上Hadoop只是大数据若干处理方案中的一个.现在的SQL.NoSQL.NewSQL.Hadoop等等,都能在不同层

百度正式开放大数据引擎

4月24日,百度公司宣布正式发布大数据引擎,将开放云.数据工厂.百度大脑三大组件在内的核心大数据对外开放,与百度合作的机构和传统企业将能够在线使用百度的大数据架构,处理自身积累的大数据,或融合百度大数据,来改造和优化传统行业的企业管理.产品服务.商业模式等环节.百度将在政府.医疗.金融.教育等传统领域率先开展对外合作. 开放大数据引擎 在当天百度第四届技术开放日上,百度首席执行官李彦宏重提互联网正在加速淘汰传统产业的观点,并补充道:"互联网几乎首先是颠覆了媒体,后来颠覆了零售,再往后是旅游,再往

开源大数据查询分析引擎现状

引言 大数据查询分析是云计算中核心问题之一,自从Google在2006年之前的几篇论文奠定云计算领域基础,尤其是GFS.Map-Reduce. Bigtable被称为云计算底层技术三大基石.GFS.Map-Reduce技术直接支持了Apache Hadoop项目的诞生.Bigtable和Amazon Dynamo直接催生了NoSQL这个崭新的数据库领域,撼动了RDBMS在商用数据库和数据仓库方面几十年的统治性地位.FaceBook的Hive项 目是建立在Hadoop上的数据仓库基础构架,提供了一

【Spark Summit East 2017】使用开源大数据软件构建实时防欺诈引擎

本讲义出自Kees Jan de Vries在Spark Summit East 2017上的演讲,骗子总试图使用盗取来的信用卡购买商品,预定机票和酒店等,这伤害了持卡人的信任和供应商在世界各地的业务,本讲义介绍了使用开源大数据软件:Spark, Spark ML, H2O, Hive, Esper等构建的实时防欺诈引擎,并介绍了面对的挑战.

开源大数据周刊-第49期

资讯 实时流数据分析--2017 年的 27 个预测 概述:根据Markets & Markets的预测,流数据分析市场将从 2016 年的 30 8 亿美元增长到 2021 年的 137 亿美元.各个企业都将快速意识到他们需要利用实时数据集成和流数据分析来获得更有价值的信息.使数据变得更安全以及保持增长 高清无码,2017全球大数据产业版图! 汇聚了大数据生态的相关产业版图和全景版图. Caffe2正式发布!新框架有何不同?贾扬清亲自解答 今天凌晨召开的F8大会上,Facebook正式发布Ca

开源大数据周刊-第40期

阿里云E-MapReduce动态 阿里云HBase支持PB级别的分布式数据库即将开始公测 资讯 360大数据中心副总经理傅志华:2017年大数据发展的十大趋势 2016年,大数据已从前两年的预期膨胀阶段.炒作阶段转入理性发展阶段.落地应用阶段.2017年,大数据依然处于理性发展期,依然存在诸多挑战,但前景依然非常乐观. Oracle进击云计算,搅局者or生力军? 作为传统IT厂商的Oracle,眼看自己被逐步碾压,也不甘示弱开始加速转型,积极投身云计算.最近在纽约举行的"云世界"活动中

开源大数据技术专场(上午):Spark、HBase、JStorm应用与实践

16日上午9点,2016云栖大会"开源大数据技术专场" (全天)在阿里云技术专家封神的主持下开启.通过封神了解到,在上午的专场中,阿里云高级技术专家无谓.阿里云技术专家封神.阿里巴巴中间件技术部高级技术专家天梧.阿里巴巴中间件技术部资深技术专家纪君祥将给大家带来Hadoop.Spark.HBase.JStorm Turbo等内容. 无谓:Hadoop过去现在未来,从阿里云梯到E-MapReduce 阿里云高级技术专家 无谓  从开辟大数据先河至现在,风雨十年,Hadoop已成为企业的通

详解iOS的数据存储_IOS

iOS应用数据存储的常用方式     1.XML属性列表(plist)归档.     2.Preference(偏好设置).     3.NSKeyedArchiver归档.     4.SQLite3     5.Core Data 应用沙盒 每个iOS应用都有自己的应用沙盒(应用沙盒就是文件系统目录)与其他文件系统隔离.应用必须待在自己的沙盒里,其他应用不能访问该沙盒. 模拟器应用沙盒的根路径在: (apple是用户名, 6.0是模拟器版本) /Users/apple/Library/App