Apache Spark机器学习.2.5 数据集连接

2.5 数据集连接


本节,我们将介绍数据连接的技术,并讨论Spark处理数据连接的特有的特征,以及一些使工作更容易进行的数据连接解决方案。

学习完本节,我们将有能力按照各类机器学习需要做数据连接。

2.5.1 数据连接及其工具——Spark SQL

为机器学习项目准备数据集时,我们一般需要组合多个数据集。关系表通过主键和外键进行连接。

连接两个及以上的数据集听起来容易,但做起来非常有挑战,并且非常耗时。在SQL语句中,SELECT是最常用的命令。作为例子,下面是一个执行连接的典型的SQL代码:

 

为执行上面提到的表连接任务,数据科学家和机器学习从业者经常使用他们熟悉的SQL工具。在Spark环境中,Spark SQL就是为此开发的工具。

Spark SQL能够让用户在Spark开发环境中使用SQL或 DataFrame API查询结构化数据,这些在R notebook中依然可以使用。Spark SQL重用了Hive的前端和元数据,与Hive数据和查询完全兼容。

Spark SQL包含一个基于成本的优化器、列存储和代码生成器以生成快速的查询。同时,Spark SQL使用Spark引擎将查询扩展到几千个节点并耗费多个小时,它支持查询过程中的容错机制。

使用Spark SQL时,有两个主要的组件:DataFrame和SQLContext。

正如前面讨论的,DataFrame是一个组织成列的分布式数据集。它基于R语言的数据框,并与关系数据库的数据表类似。Spark SQL通过SQLContext封装了所有关系函数。

2.5.2 Spark中的数据集连接

这里,我们通过一些实例展示使用Spark SQL的方法和相关过程。

为便于分析,设想应用程序包含下面的4个数据表:

 

至少,我们需要将User和Events两个表连接起来,使用下面的代码完成连接:

 

Spark SQL的结果以RDD的形式存储,与Spark其他库交互比较少。上面返回的结果可以直接用于机器学习。

从上面的例子看到,Spark SQL使得为机器学习算法准备数据而进行的不同数据集连接非常方便。进一步讲,Spark SQL允许开发者简便地操作和连接机器学习算法的输出结果,从而生成想要的结果。

更多关于Spark SQL使用的信息,请访问:http://spark.apache.org/docs/1.0.0/sql-programming-guide.html。

2.5.3 使用R语言数据表程序包进行数据连接

相比以前,Spark已经使得数据操作更快、数据分析更容易了。

根据Spark开发团队的初衷,开发Spark SQL的目的是为了:

编写少量的代码

读取少量的数据

将一些困难的工作交给优化器完成

这都是通过使用DataFrame和Spark SQL命令sqlContext.read和 df.write实现的。

除了Spark SQL,data.table程序包功能非常强大,用户也可以使用R语言连接表。开发data.table程序包的主要目的是:

快速合并大量的数据(例如:内存中数据100GB),快速的排序连接

在不使用复制命令的情况下,按组快速增加/修改/删除列数据

按列进行数据表和快速的文件读取(fread)

该程序包为开发人员提供了自然和灵活的语法。

使用data.table进行连接,你首先需要创建data.frame,这非常容易。然后,使用X[Y]连接两个表。

这被称为末次观测值结转(Last Observation Carried Forward,LOCF) 或滚动连接。

X[Y]是data.table X和data.table Y 两个表之间的连接。如果Y有两列,第一列与X的第一列的key匹配,两个表的第二列也互相匹配。默认情况下执行equi-join,也就是值必须相等。

除了等值连接,还有滚动连接:

 

如前所述,Y的第一列与X的第一列匹配,也就是值相等。然而,Y中的最后一个连接列,即例子中的第二列,被特殊处理。在第一列匹配的情况下,如果未找到匹配项,将返回上一行的值。

其他控制包括:前滚、后滚、回滚至最近项和限时滚动。

在提示符下,输入下面的命令查看例子。

 

R语言data.table提供了增强版data.frame,包括:

快速合并大量数据——例如,100GB(查看一下高达20亿行的测试基准)。

快速的排序连接——例如,前滚、后滚、回滚至最近项和限时滚动。

快速的重叠范围连接——例如,GenomicRanges。

在2.2.3节,为便于分析我们给出了4个表:

 

在这个例子中,上一节我们获取了第一个数据的一个子集,然后与第四个数据汇集。现在,将它们连接在一起。如上一节,在R notebook上混合使用Spark SQL 和R语言,使数据连接更容易。

时间: 2024-09-20 05:44:38

Apache Spark机器学习.2.5 数据集连接的相关文章

《 Apache Spark机器学习.》导读

本节书摘来自华章出版社< Apache Spark机器学习.>一书中作者[美] 刘永川(Alex Liu) 著 闫龙川 高德荃 李君婷 译  前 言 作为数据科学家和机器学习专业人员,我们的工作是建立模型进行欺诈检测.预测客户流失,或者在广泛的领域将数据转换为洞见.为此,我们有时需要处理大量的数据和复杂的计算.因此,我们一直对新的计算工具满怀期待,例如Spark,我们花费了很多时间来学习新工具.有很多可用的资料来学习这些新的工具,但这些资料大多都由计算机科学家编写,更多的是从计算角度来描述.

Apache Spark机器学习.2.1 访问和加载数据集

摘要 Spark机器学习的数据准备 机器学习从业者和数据科学家时常耗费70%或80%的时间为机器学习项目准备数据.数据准备可能是很艰辛的工作,但是它影响到接下来的各方面工作,因此是非常必要和极其重要的.所以,在本章中,我们将讨论机器学习中所有必要的数据准备方面的内容,通常包括数据获取.数据清洗.数据集连接,再到特征开发,从而让我们为基于Spark平台构建机器学习模型准备好数据集.具体而言,我们将讨论前面提到的以下6个数据准备任务,然后在针对复用性和自动化的讨论中结束本章: 访问和加载数据集 开放

Apache Spark机器学习.2.4 数据集重组

2.4 数据集重组 本节,我们介绍数据集重组技术.我们将讨论一些特殊的Spark数据重组特征,以及一些可以用在Spark notebook中基于R语言数据重组的特别方法. 学习完本节,我们可以根据不同的机器学习需要进行数据集重组. 2.4.1 数据集重组任务 数据集重组虽然听起来比较容易,但还是很有挑战,并且非常耗时. 有两个常见的数据重组任务:一是,获取一个用于建模的数据子集:二是,以更高的层次汇总数据.例如,我们有学生数据,但是我们需要一些班级层面的数据集.为此,我们需要计算学生的一些属性,

Apache Spark机器学习.1.8 Spark notebook简介

1.8 Spark notebook简介 在本节中,我们首先讨论有关面向机器学习的notebook方法.然后,我们介绍R Markdown,以其作为一个成熟的notebook案例,最后介绍Spark中的R notebook. 学习完本节,读者将掌握notebook相关的方法和概念,并为将其用于管理和开发机器学习项目做好准备. 1.8.1 面向机器学习的notebook方法 notebook已经成为众人青睐的机器学习工具,因为该工具既能动态驱动,还具备可重复生成的特点. 大部分notebook接口

Apache Spark机器学习2.6 特征提取

2.6 特征提取 在本节,我们的关注点将转向特征提取,特征提取是根据工作数据集中可用特征或信息扩展为新的特征或者变量.与此同时,我们将讨论一些Apache Spark中特征提取的特殊功能,以及Spark中与特征相关的便捷解决方案. 学完本节之后,我们能够针对各种各样的机器学习项目开发并组织特征. 2.6.1 特征开发的挑战 大部分的大数据机器学习项目通常都不能直接使用大数据集.例如,使用网络日志数据时,它经常以随机文本集形式呈现,显得非常混乱,我们需要从中提取对机器学习有用的信息和特征.例如,我

Apache Spark机器学习2.7 复用性和自动化

2.7 复用性和自动化 本节我们将讨论数据集组织方法.预处理工作流方法,然后使用Apache Spark pipeline模型进行表示,并实现工作流.然后,我们将评估数据预处理的自动化解决方案. 学完本节,我们应能够使用Spark pipeline模型来表示和实现数据集预处理工作流,理解一些基于Apache Spark的自动化解决方案. 2.7.1 数据集预处理工作流 数据准备工作是从数据清洗到标识匹配,再由数据重组到特征提取,能以某种形式进行组织,反映了一步一步开展机器学习数据集准备的有序过程

Apache Spark机器学习.1.4 MLlib

1.4 MLlib MLlib是一个可扩展的Spark机器学习库,包括很多常用的机器学习算法.MLlib内置的算法如下: 以向量和矩阵形式处理数据 基本的统计计算,例如:汇总统计和相关性.简单随机数生成.分层抽样.执行简单的假设检验 分类和回归建模 协同过滤 聚类 降维 特征提取与转换 频繁模式挖掘 开发优化 PMML模型导出 Spark MLlib还处在活跃开发阶段,预计每次新版发布都会有新的算法加入其中. MLlib符合Apache Spark的计算哲学,简单易用,性能卓越. MLlib使用

Apache Spark机器学习.1.5 Spark RDD和DataFrame

1.5 Spark RDD和DataFrame 本节关注数据以及Spark如何表示和组织数据.我们将介绍Spark RDD和DataFrame技术. 通过本节的学习,读者将掌握Spark的两个关键概念:RDD和DataFrame,并将它们应用于机器学习项目. 1.5.1 Spark RDD Spark主要以一种分布式项集合的形式进行数据抽象,称之为弹性分布式数据集(Resilient Distributed Dataset,RDD).RDD是Spark的关键创新,使其比其他框架计算更加快速和高效

Apache Spark机器学习.1.1 Spark概述和技术优势

摘要 Spark机器学习简介 本章从机器学习和数据分析视角介绍Apache Spark,并讨论Spark中的机器学习计算处理技术.本章首先概括介绍Apache Spark,通过与MapReduce等计算平台进行比较,展示Spark在数据分析中的技术优势和特点.接着,讨论如下五个方面的内容: 机器学习算法与程序库 Spark RDD和DataFrame 机器学习框架 Spark pipeline技术 Spark notebook技术 以上是数据科学家或机器学习专业人员必须掌握的五项最重要的技术内容