六个超大规模Hadoop部署案例

  据估计,到2015年,全世界一半以上的数据将涉及Hadoop--围绕这个开源平台的生态系统日益庞大,这有力地印证了这个惊人的数字。

  然而,有些人表示,虽然Hadoop是眼下热闹非凡的大数据领域最热话题,但它肯定不是可以解决数据中心和数据管理方面所有难题的灵丹妙药。考虑到这一点,我们暂且不想猜测这个平台未来会如何,也不想猜测彻底改变各种数据密集型解决方案的开源技术未来会如何,而是关注让Hadoop越来越火的实际应用案例。

  毫无疑问,现在有几个出众的例子,表明Hadoop及相关开源技术(Hive和HBase等)在如何重塑大数据公司考虑基础设施的角度。

  虽然我们会通过在今年Hadoop Wrld大会之前撰写的一系列文章,继续专门介绍Hadoop并非解决之道的应用案例,但是不妨阐明几个引人注目的、大规模Hadoop部署案例,它们在重塑依赖大数据的公司,这些公司从事社交媒体、旅游和一般商品和服务等行业。

  先来介绍你在电子商务兴起时期最先开始听到的一家公司:电子港湾(eBay)。

  案例之一:电子港湾的Hadoop环境

  电子港湾公司分析平台开发小组的Anil Madan讨论了这家拍卖行业的巨擘在如何充分发挥Hadoop平台的强大功能,充分利用每天潮水般涌入的8TB至10TB数据。

  虽然电子港湾只是几年前才开始向生产型Hadoop环境转移,但它却是早在2007年就率先开始试用Hadoop的大规模互联网公司之一,当时它使用一个小型集群来处理机器学习和搜索相关性方面的问题。

  这些涉及的是少量数据;Madan表示,但是就这个试验项目而言很有用;不过随着数据日益增加、用户活动日益频繁,电子港湾想充分利用几个部门和整个用户群当中的数据。

  电子港湾的第一个大型Hadoop集群是500个节点组成的Athena,这个专门建造的生产型平台可以满足电子港湾内部几个部门的要求。该集群只用了不到三个月就建成了,开始高速处理预测模型、解决实时问题;后来不断扩大规模,以满足其他要求。

  Madan表示,该集群现由电子港湾的许多小组使用,既用于日常生产作业,又用于一次性作业。小组使用Hadoop的公平调度器(Fair Scheduler)来管理资源分配、为各小组定义作业池、赋予权重、限制每个用户和小组的并行作业,并且设定抢占超时和延迟调度。

  虽然Madan经常在台上畅谈Hadoop具有的实际价值,他也经常提到工作小组在扩建电子港湾基础设施时面临、继续竭力克服的几个主要挑战。下面列出了与Hadoop有关的一系列挑战:

  可扩展性

  就现有版本而言,主服务器NameNde存在可扩展性问题。由于集群的文件系统不断扩大,它占用的内存空间也随之扩大,因为它把整个元数据保存在内存中。1PB的存储容量大概需要1GB的内存容量。几种切实可行的解决方案是分层命名空间分区,或者结合使用Zkeeper和HBase,实现元数据管理。

  可用性

  NameNde的可用性对生产型工作负载来说至关重要。开源社区正致力于冷备份(cld standby)、暖备份(warm standby)和热备份(ht standby)这几个选项,比如检查点(Checkpint)节点和备份(Backup)节点;从辅助NameNde切换avatar的Avatar节点;以及日志元数据复制技术。我们正在评估这些方案,以建立我们的生产型集群。

  数据发现

  在天生不支持数据结构的系统上支持数据监管、发现和模式管理。一个新项目准备把Hive的元数据存储区和wl合并成一个新系统,名为Hwl。我们旨在努力把该系统连接到我们的分析平台中,那样我们的用户很容易跨不同的数据系统发现数据。

  数据移动

  我们正在努力开发发布/订阅数据移动工具,以便跨我们不同的子系统,如数据仓库和Hadoop分布式文件系统(HDFS),支持数据拷贝和调和。

  策略

  通过配额(目前的Hadoop配额需要做一些改进)进行存储容量管理,能够制定良好的保留、归档和备份等策略。我们正根据集群的工作负载和特点,跨不同的集群努力定义这些策略。

  度量指标、度量指标、度量指标

  我们正在开发成熟可靠的工具,以便生成度量指标,用于度量数据来源、使用情况、预算编制和利用率。一些Hadoop企业服务器体现的现有度量指标有的不够全面,有的只是临时的,很难看清楚集群使用模式。

  案例之二:通用电气借助Hadoop分析用户的情感

  据通用电气公司(GE)Hadoop技术部的产品经理Linden Hillenbrand声称,情感分析很棘手--它不仅仅是个技术挑战,还是个业务挑战。

  在通用电气公司,数字媒体小组和Hadoop小组通力合作,为高度依赖高级情感分析功能的营销部门开发了一款交互式应用软件。

  此举目的在于,让营销小组能够通过我们开展的各项活动,评估外界对通用电气所持的看法(正面看法、中立看法或负面看法)。Hadoop负责支持该应用软件的情感分析部分,这部分对Hadoop来说是一种高度密集的文本挖掘应用环境。

  他声称,利用 Hadoop应对技术层面的这些挑战带来了重大改进。

  为了强调这一点,Hillenbrand提到了公司在情感分析方面采取的独特NSQL方法,这一方法带来了80%的准确率,也是Hadoop这个核心平台的基础,确保公司未来在数据挖掘方面求得发展。正如下图表明的那样,通用电气在利用数据挖掘以及新平台带来一种新的洞察力方面有了大幅改进。

  Hillenbrand表示,就通用电气在内部对Hadoop未来的展望而言,情感分析项目取得了双重成功。它不仅为这家《财富》50强公司的营销小组提供了更准确的结果,还为这家公司的下一代深度数据挖掘、分析和可视化等项目奠定了基础。

  案例之三:旅游行业的典型应用案例

  rbitz Wrldwide旗下的全球消费者旅游品牌每天要处理数以百万计的搜索和交易。

  通过关系数据库等传统系统,存储和处理这类活动生成的越来越庞大的数据量变得越来越难,因而这家公司求助于Hadoop,帮助消除部分复杂性。

  这家公司的首席软件工程师Jnathan Seidman和另一名工程师Ramesh Venkataramiah一向乐于讨论这家旅游网站的基础设施如何加以管理。他们俩在最近面向多位听众的一次交流中讨论了Hive的作用,尤其是对一些关键搜索功能所起的作用。

  Hadoop和Hive帮助这家在线旅游中心处理各项事务:改进让游客可以迅速筛选和分类酒店的功能,到查看更宏观内部趋势的功能,不一而足。据这两位工程师声称,rbitz的大数据问题让它成为运用Hadoop的"典型"。他们俩表示,面对很分散的服务网络--这些服务每天生成数百GB大小的当天日志,处理每天数百万的这些搜索和交易,这绝非易事。

  在上面的幻灯片中,他们俩演示了如何利用Hadoop和Hive来处理数据;可能更重要的是,演示了什么使得这家公司的特定问题最适合用Hadoop来处理(因为需要提醒的是一点,并非所有业务都有Hadoop的用武之地。)

  案例之四:Facebook更新Hadoop的状态

  虽然一些公司和机构对其庞大的Hadoop系统秘而不宣,但是就已知存在的系统而言,Facebook的数据仓库Hadoop集群已成为世界上已知规模最大的Hadoop存储集群。

  下面是关于这个单一HDFS集群的一些详细信息:

  单一HDFS集群中存储容量达21 PB

  2000个机器

  每个机器12 TB(有几个机器是每个24TB)

  1200个机器每个有8个处理器核心,800个机器每个有16个核心

  每个机器有32 GB内存

  每个机器有15个映射/化简(map-reduce)任务

  已配置存储容量总共超过21PB,大于之前大名鼎鼎的雅虎集群(14PB)。在Hadoop的早期,Facebook就与另外几个互联网巨擘,充分利用这种框架来管理其不断发展的业务。

  由于每月活跃用户超过4亿个,页面浏览量超过5000亿人次,每个月共享的内容多达250亿则,对于自称能够处理大数据问题的任何技术而言,Facebook是再合适不过的应用环境。

  Facebook的工程师与雅虎的Hadoop工程小组密切合作,把Hadoop推向更高的可扩展性和性能。Facebook有许多Hadoop集群,其中最大的一个集群用于数据仓库。下面一些统计数字描述了Facebook的数据仓库Hadoop集群的几个特点:

  每天增加12 TB的压缩数据

  每天扫描800 TB的压缩数据

  每天处理25000个映射/化简作业

  HDFS里面有6500万个文件

  30000个客户机同时访问HDFS NameNde

  Facebook的软件工程师、开源倡导者Jnathan Gray演示了Facebook如何一直使用更庞大Hadoop平台架构的一部分:HBase,支持生产环境下的在线应用程序和离线应用程序。

  虽然上述幻灯片有点深奥,又针对特定环境,但是大致描述了HBase适合的那种复杂数据环境;而更重要的是,描述了这个环境需要怎样的一些重大调整和专门知识才加以管理。HBase仅仅是Facebk管理海量数据、为用户提供异常智能化服务的方法之一。

  案例之五:Infchimps处理一百万倍的混合(mashup)

  问一下Phillip "Flip" Krmer哪里能找到几乎任何的列表、电子表格或数据集,他会很高兴地向你介绍他的公司InfChimps,这家公司自称是"全世界的数据仓库"。

  每个月都有成千上万的人访问该网站进行搜索,查询特定的数据。最近,该网站的用户在查询推特和社交网络数据。其较为传统的数据集包括其他热门数据,比如金融、体育比赛和股票数据。

  Krmer表示,当然,用户们在别的地方也能查询这些数据集,但是他们常常访问InfChimps,未必是由于缺少数据或者很难获得数据,而是由于别处获取数据的成本极其高昂,或者数据采用了不适合使用的格式--至少对Infchimps面向的开发人员这个客户群来说是这样。

  这家公司正在装配一个数据存储库,里面含有成千上万的公共和商业数据集,许多数据集达到了TB级。现代机器学习算法通过借助数据的一般结构,深入分析数据;即便数据有机地嵌入到链接数据集里面,也是如此。当然,所有这些工作会带来一个复杂的数据环境,势必需要一种能够跨多个对象运行的平台,无论对内部(数据收集和管理方面)来说,还是对平台用户来说,都是如此。

  Infchimps让用户们可以借助使用Hadoop以及亚马逊云和Rackspace云的基础设施,充分利用数据。你从下面可以看到,这家公司充分利用了弹性Hadoop,还利用了亚马逊网络服务(AWS)和Rackspace,同时在后端上使用Hadoop满足自己的要求。

  这家公司让用户可以随时获取自己所需的Hadoop资源,无论这些是预定资源、临时资源还是专用资源。这种灵活的功能能够支持夜间批处理作业、合规或测试集群、科学系统和生产型系统。加上为基于Hadoop的功能新增了Irnfan(Infchimps的自动化系统配置工具)这一基础,弹性Hadoop让用户可以专门为手头的作业调整资源。Infchimps声称,这简化了根据需要时,映射或化简专门机器、高计算机器、高内存机器等机器的过程。

  案例之六:Hadoop在挖掘军事情报方面的作用

  Digital Reasning声称,就其中一个核心市场:美国政府而言,它在"自动理解大数据"方面一路领跑。

  Digital Reasning致力于实现这个目标,为此最近竭力梳理来自美国情报部门的海量的非结构化文本数据,寻找可能危及国家安全的威胁。这款专门定制的软件用于面向实体的分析(entity-riented analytics),已成为Synthesys技术的核心,这项技术则是其业务的立足之本。

  该公司使用Cludera的发行版,而且其Synthesys平台支持分布式的、面向列的开源数据库HBase。据Digital Reasning声称,"这种集成让我们得以获得超大规模处理功能,并且为政府和商业市场提供复杂数据分析能力。"

  公司首席执行官Tim Estes在下面的幻灯片中具体介绍了公司的基础设施和这一使用场景:

  "Cludera及其Hadoop专家小组与我们紧密合作,在复杂分析领域取得了新的突破。Cludera和Digital Reasning共同为要求极高的客户提供了针对极其庞大的不同数据集,识别和关联实体的功能,"Digital Reasning的首席执行官Tim Estes如是说。

  他继续说,以前,只能"孤立地分析关键情报数据孤岛",但是Synthesys集成了Cludera的Apache Hadoop(CDH3)和HBase支持功能后,我们可以把用于自动理解数据的算法与能以前所未有的方式处理规模和复杂性,把各部分联系起来的平台结合起来。"

时间: 2024-11-06 07:09:00

六个超大规模Hadoop部署案例的相关文章

不看不知道:六个超大规模Hadoop部署案例

虽然Hadoop是眼下热闹非凡的大数据领域最热话题,但它肯定不是可以解决数据中心和数据管理方面所有难题的灵丹妙药.考虑到这一点,我们暂且不想猜测这个平台未来会如何,也不想猜测各种数据密集型解决方案的开源技术未来会如何,而是关注让Hadoop越来越火的实际应用案例. 案例之一:eBay的Hadoop环境 eBay分析平台开发小组的Anil Madan讨论了这家拍卖行业的巨擘在如何充分发挥Hadoop平台的强大功能,充分利用每天潮水般涌入的8TB至10TB数据. 虽然eBay只是几年前才开始向生产型

Hadoop应用案例分析:在Yahoo的应用

文章讲的是Hadoop应用案例分析:在Yahoo的应用,关于Hadoop技术的研究和应用,Yahoo!始终处于领先地位,它将Hadoop应用于自己的各种产品中,包括数据分析.内容优化.反垃圾邮件系统.广告的优化选择.大数据处理和ETL等;同样,在用户兴趣预测.搜索排名.广告定位等方面得到了充分的应用. 在Yahoo!主页个性化方面,实时服务系统通过Apache从数据库中读取user到interest的映射,并且每隔5分钟生产环境中的Hadoop集群就会基于最新数据重新排列内容,每隔7分钟则在页面

什么是HADOOP、产生背景、在大数据、云计算中的位置和关系、国内外HADOOP应用案例介绍、就业方向、生态圈以及各组成部分的简介(学习资料中的文档材料)

1. HADOOP背景介绍 1. 1.1什么是HADOOP 1.        HADOOP是apache旗下的一套开源软件平台 2.        HADOOP提供的功能:利用服务器集群,根据用户的自定义业务逻辑,对海量数据进行分布式处理 3.        HADOOP的核心组件有 A.       HDFS(分布式文件系统) B.       YARN(运算资源调度系统) C.       MAPREDUCE(分布式运算编程框架) 4.        广义上来说,HADOOP通常是指一个更

Openstack 实现技术分解 (1) 开发环境 — Devstack 部署案例详解

目录 目录 前言 系统环境 Devstack 下载源码 配置文件 localconf localrc 简易的环境脚本 openrc 部署 Devstack 自动化部署流程 部署案例 单节点 Nova-Network 模式部署 多节点 Nova-Network 模式部署 多节点 Neutron 模式部署 单节点 Neutron 模式部署 部署样例 使用 不使用 FIXED-IP 让 Instances 直接使用连接外网的网段 最后 ERROR 前言 在继上一个系列博文 << 用 Flask 来写

漫谈大数据之Hadoop部署前的思考

Hadoop的应用前提是"数据是有价值的!",当然,这一点已经得到了几乎所有人的认可,并且在实际环境中,也都是这样在做的,我们都希望从系统日志,网络数据,社交信息等海量数据中发掘出有价值的信息,比如,用户的行为,习惯等,而这些是做下一步市场营销的有效决策依据.在Hadoop出现后,对于数据的发掘更是体现的淋漓尽致,尤其是从知名的互联网公司开始,都已经在使用或部署Hadoop环境. 面对如此诱惑,很多传统的企业用户都想参考互联网企业的做法,非常快速的部署Hadoop,从而快速整合和发掘既

六个简化容器部署的免费工具

本文讲的是六个简化容器部署的免费工具[编者的话]本文来自Aqua技术博客,主要介绍了6款工具,它们是CodeFresh.Captain.Dogestry.Rocker.Convoy和Peekr,分别从敏捷开发协作.持续交付.镜像存储.镜像构建.后端存储和镜像安全方面帮助我们更容易地部署容器. 寻求帮助总是没有错的,尤其是在做容器相关工作的时候.那些有助于进行测试.镜像构建.备份以及其他重要过程的第三方Docker工具在它们免费的时候显得更加宝贵了. 在四月份的时候,我强调了六个简化容器部署的工具

足以震惊世界的六个云计算的失败案例

即使是著名的云服务供应商,也会有不好过的日子.从持续数个小时的服务器中断到客户数据的丢失,意外的云灾害已经对很多常见的云服务供应商产生了严重打击.例如,亚马逊网络服务(AWS).几天前,这个公共云服务市场的领导者就受到了严重打击,在周围产生了让人为难的后果.原因是员工的操作失误导致数据中心供电中断.无论是公司还是个人的职业生涯,都因此留下了很坏的印象. 足以震惊世界的六个云计算的失败案例 以下是近一段时间里影响到世界的云计算失误案例: 1. Salesforce脱机:2016年5月9日,Sale

代码重构(六):代码重构完整案例

无论做什么事情呢,都要善始善终呢.前边连续发表了5篇关于重构的博客,其中分门别类的介绍了一些重构手法.今天的这篇博客就使用一个完整的示例来总结一下之前的重构规则,也算给之前的关于重构的博客画一个句号.今天的示例借鉴于<重构,改善既有代码的设计>这本书中的第一章的示例,在其基础上做了一些修改.今天博客从头到尾就是一个完整的重构过程.首先会给出需要重构的代码,然后对其进行分析,然后对症下药,使用之前我们分享的重构规则对其进行一步步的重构. 先来聊一下该示例的使用场景(如果你有重构这本书的话,可以参

Hadoop部署常用的小脚本

最近抛弃非ssh连接的http://www.aliyun.com/zixun/aggregation/14119.html">Hadoop集群部署方式了,还是回到了用ssh key 验证的方式上了.这里面就有些麻烦,每台机器都要上传公钥.恰恰我又是个很懒的人,所以写几个小脚本完成,只要在一台机器上面就可以做公钥的分发了. 首先是生成ssh key脚本: ssh-keygen一般来说需要输入passphrase,但是一般都是三个回车过去了,我懒的输入,加上-P ''就不用了. 然后是添加公钥