一个适合小公司用的开源数据管道工具

最近在Prettyyes一直想建立起非常专业的data pipeline系统,然后没有很多时间,这几个礼拜正好app上线,有时间开始建立自己的 data pipeline,能够很好的做每天的数据导入,数据收集,以及数据分析。

什么是ETL

ETL 是常用的数据处理,在以前的公司里,ETL 差不多是数据处理的基础,要求非常稳定,容错率高,而且能够很好的监控。ETL的全称是 Extract,Transform,Load, 一般情况下是将乱七八糟的数据进行预处理,然后放到储存空间上。可以是SQL的也可以是NOSQL的,还可以直接存成file的模式。

一开始我的设计思路是,用几个cron job和celery来handle所有的处理,然后将我们的log文件存在hdfs,还有一些数据存在mysql,大概每天跑一次。核心是能够scale,稳定,容错,roll back。我们的data warehouse就放在云上,就简单处理了。

有了自己的ETL系统我觉得就很安心了,以后能够做数据处理和机器学习方面就相对方便一些。

问题来了

一开始我设计的思路和Uber一开始的ETL很像,因为我觉得很方便。但是我发觉一个很严重的问题,我一个人忙不过来。首先,要至少写个前端UI来监控cron job,但是市面上的都很差。其次,容错的autorestart写起来很费劲,可能是我自己没有找到一个好的处理方法。最后部署的时候相当麻烦,如果要写好这些东西,我一个人的话要至少一个月的时间,可能还不是特别robust。在尝试写了2两天的一些碎片处理的脚本之后我发觉时间拖了实在太久了。

隆重推荐的工具

airbnb是我很喜欢的公司,他们有很多开源的工具,airflow我觉得是最实用的代表。airflow 是能进行数据pipeline的管理,甚至是可以当做更高级的cron job 来使用。现在一般的大厂都说自己的数据处理是ETL,美其名曰 data pipeline,可能跟google倡导的有关。airbnb的airflow是用python写的,它能进行工作流的调度,提供更可靠的流程,而且它还有自带的UI(可能是跟airbnb设计主导有关)。话不多说,先放两张截图:

什么是DAG

airflow里最重要的一个概念是DAG。

DAG是directed asyclic graph,在很多机器学习里有应用,也就是所谓的有向非循环。但是在airflow里你可以看做是一个小的工程,小的流程,因为每个小的工程里可以有很多“有向”的task,最终达到某种目的。在官网中的介绍里说dag的特点:

  • Scheduled: each job should run at a certain scheduled interval
  • Mission critical: if some of the jobs aren’t running, we are in trouble
  • Evolving: as the company and the data team matures, so does the data processing
  • Heterogenous: the stack for modern analytics is changing quickly, and most companies run multiple systems that need to be glued together
  • YEAH! It's awesome, right? After reading all of these, I found it's perfectly fit Prettyyes.

如何安装

安装airflow超级简单,使用pip就可以,现在airflow的版本是1.6.1,但是有个小的bug,这个之后会告诉大家如何修改。pip install airflow

这里有个坑,因为airflow涉及到很到数据处理的包,所以会安装pandas和numpy(这个Data Scientist应该都很熟悉)但是国内pip install 安装非常慢,用douban的源也有一些小的问题。我的解决方案是,直接先用豆瓣的源安装numpy 和 pandas,然后再安装airflow,自动化部署的时候可以在requirements.txt 里调整顺序就行了

如何运行


  1. pip install airflow 

摘自官方网站


  1. # airflow needs a home, ~/airflow is the default, 
  2. # but you can lay foundation somewhere else if you prefer 
  3. # (optional) 
  4. export AIRFLOW_HOME=~/airflow 
  5.  
  6. # install from pypi using pip 
  7. pip install airflow 
  8.  
  9. # initialize the database 
  10. airflow initdb 
  11.  
  12. # start the web server, default port is 8080 
  13. airflow webserver -p 8080 

然后你就可以上web ui查看所有的dags,来监控你的进程。

如何导入dag

一般第一次运行之后,airflow会在默认文件夹下生成airflow文件夹,然后你只要在里面新建一个文件dag就可以了。我这边部署在阿里云上的文件tree大概是这个样子的。

以下是我自己写的我们公司prettyyes里需要每天处理log的其中一个小的dag:


  1. from airflow import DAG 
  2. from airflow.operators import BashOperator 
  3. from datetime import datetime, timedelta 
  4. import ConfigParser 
  5.  
  6.  
  7. config = ConfigParser.ConfigParser() 
  8. config.read('/etc/conf.ini') 
  9. WORK_DIR = config.get('dir_conf', 'work_dir') 
  10. OUTPUT_DIR = config.get('dir_conf', 'log_output') 
  11. PYTHON_ENV = config.get('dir_conf', 'python_env') 
  12.  
  13. default_args = { 
  14.     'owner': 'airflow', 
  15.     'depends_on_past': False, 
  16.     'start_date': datetime.today() - timedelta(days=1), 
  17.     'retries': 2, 
  18.     'retry_delay': timedelta(minutes=15), 
  19.  
  20. dag = DAG('daily_process', default_args=default_args, schedule_interval=timedelta(days=1)) 
  21.  
  22. templated_command = "echo 'single' | {python_env}/python {work_dir}/mr/LogMR.py"\ 
  23.     .format(python_env=PYTHON_ENV, work_dir=WORK_DIR) + " --start_date {{ ds }}" 
  24.  
  25.  
  26. task = BashOperator( 
  27.     task_id='process_log', 
  28.     bash_command=templated_command, 
  29.     dag=dag 

写好之后,只要将这个dag放入之前建立好的dag文件夹,然后运行:


  1. python <dag_file> 

来确保没有语法错误。在测试里你可以看到我的


  1. schedule_interval=timedelta(days=1) 

这样我们的数据处理的任务就相当于每天跑一次。更重要的是,airflow还提供处理bash处理的接口外还有hadoop的很多接口。可以为以后连接hadoop系统提供便利。很多具体的功能可以看官方文档。

其中的一个小的bug

airflow 1.6.1有一个网站的小的bug,安装成功后,点击dag里的log会出现以下页面:

这个只要将


  1. airflow/www/utils.py  

文件替换成最新的airflow github上的utils.py文件就行,具体的问题在这个:

fixes datetime issue when persisting logs

使用supervisord进行deamon

airflow本身没有deamon模式,所以直接用supervisord就ok了,我们只要写4行代码。


  1. [program:airflow_web] 
  2. command=/home/kimi/env/athena/bin/airflow webserver -p 8080 
  3.  
  4. [program:airflow_scheduler] 
  5. command=/home/kimi/env/athena/bin/airflow scheduler 

我觉得airflow特别适合小的团队,他的功能强大,而且真的部署方便。和hadoop,mrjob又可以无缝连接,对我们的业务有很大的提升。

本文作者:佚名

来源:51CTO

时间: 2024-10-28 11:47:14

一个适合小公司用的开源数据管道工具的相关文章

Grails一个适合快速开发的web开源框架

本文将介绍一种更为通用的封装方案,该方案中通过组合使用 dojo.Stateful.dojo.xhr.dojo.Deferred 等常用类及方法,使开发者用一种面向对象的.简单透明的方式,实现客户端与 REST 风格的 API 之间的同步或者异步的交互. 本文将使用 Dojo 1.7 并遵循 AMD 的规范,设计并实现与 REST API 交互的 Web 前端http://www.aliyun.com/zixun/aggregation/14208.html">数据模型. 准备工作 安装

如何选择一个适合自己的开源项目来阅读

人们都说, 阅读源码是提高编程水平的一个极好的方法, 但是如何找到一个适合自己阅读的源码, 就蛋疼的很. 优秀的开源项目非常多, 肯定是看不完的. 而且如果没有一个明确的目的, 只是因为火就看, 则事倍功半. 我更像一个后台开发程序员, 所以以下观点都基于后台程序员的视角出发. 从 Node.js 和 Tornado 出发 在几个月前, 我学习了 Tornado 框架并用来做了一个项目; 而 Node.js 则是最近几天才开始学的. 所以很可能会有说的不严谨的地方. Tornado 是一个异步非

最适合Java开发者的大数据工具和框架

文章讲的是最适合Java开发者的大数据工具和框架,当今编程人员面对的最大挑战就是复杂性,硬件越来越复杂,OS越来越复杂,编程语言和API越来越复杂,我们构建的应用也越来越复杂.根据外媒的一项调查报告,以下列出了Java程序员在过去12个月内一直使用的一些工具或框架,或许会对你有意义. 先来看看大数据的概念.根据维基百科,大数据是庞大或复杂的数据集的广义术语,因此传统的数据处理程序不足以支持如此庞大的体量. 在许多情况下,使用SQL数据库存储/检索数据都是很好的选择.而现如今的很多情况下,它都不再

5大开源数据存储解决方案推荐

文章讲的是5大开源数据存储解决方案推荐,用于存储大数据的解决方案是当今面临的巨大技术挑战.当然,有很多不同的选择,如RDBMS,NoSQL,时间序列数据库等,本文分析了五个数据存储解决方案,这些方案是为不同目的而创建的,但所有方案都可用于保存基于时间的日志. 数据存储仅将事件保存到数据库是不够的,每个数据存储库都必须有一个接口以实时搜索,并具有良好的性能,每天至少能够存储40GB的数据,总数据大小至少约为20TB,搜索日志消息应该实时完成,搜索查询的响应时间小于10秒. 1.ClickHouse

HTML 5适合小公司,适合在大平台上做内容

摘要: 36氪 最近有一系列的文章讨论HTML5开发的未来,其中包括乐观派的<HTML 5终于定稿,八年后我们再一次谈谈怎么改变世界>,还有悲观派的<HTML 5定稿了?背后还是那场闹剧>以及<反 36氪最近有一系列的文章讨论HTML5开发的未来,其中包括乐观派的<HTML 5终于定稿,八年后我们再一次谈谈怎么改变世界>,还有悲观派的<HTML 5定稿了?背后还是那场闹剧>以及<反思HTML5惨痛的500天和四个谎言>. 这几篇文章已经基本

大流量网站性能优化:一步一步打造一个适合自己的BigRender插件(转)

BigRender 当一个网站越来越庞大,加载速度越来越慢的时候,开发者们不得不对其进行优化,谁愿意访问一个需要等待 10 秒,20 秒才能出现的网页呢? 常见的也是相对简单易行的一个优化方案是 图片的延迟加载.一个庞大的页面,有时我们并不会滚动去看下面的内容,这样就浪费了非首屏部分的渲染,而这些无用的渲染,不仅包括图片,还包括其他的 DOM 元素,甚至一些 js/css(某些js/css 是根据模块请求的,比如一些 ajax),理论上,每增加一个 DOM,都会增加渲染的时间.有没有办法能使得

分页-我想做一个基于jquery的可操作表格数据展示与处理的控件

问题描述 我想做一个基于jquery的可操作表格数据展示与处理的控件 我是新手,我想做一个基于jquery的可操作表格数据展示与数据处理控件,表格需要提供的功能是排序,搜索,设置基本的增删改,分页的功能,求具体思路.谢谢 解决方案 别求,你看看开源代码,比如jqgrid,这个是jquery的grid组件,看它的代码研究一下 解决方案二: 想做就做呗,思路看来源代码 解决方案三: 基本思路就是前台传递参数条件到后台,再返回结果到前台显示 解决方案四: 去看jquery自带的flexigrid吧,相

Raw, 5分钟搞定一切的开源数据可视化工具

"当你有一把榔头,所 有的东西看上去都像是钉子",很 多人用这句话来形容http://www.aliyun.com/zixun/aggregation/12238.html">数据可视化的狂热分子. 但是,真的有这样的数据可视化"榔头"吗? 开源数据可视化工具RAW给出了答案. 使用Raw你可以在数分钟内就 轻松完成一些高级数据可视化工作(当然,你 最好能先拜读一下flowingData的Nathan Yau的讲解).整个过程相当简单:从一个电子表格

js页码生成库,一个适合前后端分离的页码生成器

原文:js页码生成库,一个适合前后端分离的页码生成器 前言 上星期写的任务里面有需要进行分页的处理,git搜索了一番,没有觉得合适的,于是自己临时写了个分页的算法. 然后等闲下来的时候,决定把分页进行优化并推广.于是乎,一个适合前后端分离的页码生成器就这样出来了. 先别废话了,直接上 git 地址 和 demo 地址.看官果断点击进去瞧瞧看.项目主页的 readme 文档的自动排版将更好.   先讲讲设计思想 整个开发流程围绕事件绑定进行开发. 脱离 callback 回调这种回调方法,直接使用