在拉斯维加斯举行的Dell EMC World 2017大会上,戴尔EMC系统工程师Cory Minton解释了IT领导者如何更好地思考其大数据部署。
大数据在业务价值方面承诺了很多,但企业可能难以确定如何部署需要利用的架构和工具。
从描述性统计,到预测建模,到人工智能的一切都是由大数据提供支持。而组织希望通过大数据来实现这一目标,并将决定其需要推出的工具。
在5月8日召开的2017年戴尔EMC世界会议上,戴尔EMC数据分析的主要系统工程师Cory Minton发表了演示文稿,解释了组织在部署大数据时必须做出的最大决定。在做出决定开始之前,每个企业都要问这六个问题:
1.购买与构建?
要问的第一个问题是组织是否要购买大型数据系统或从头开始构建。Teradata,SAS,SAP和Splunk的热门产品可以买到并简单实现,而Hortonworks,Cloudera,Databricks,Apache Flink可用于构建大型数据系统。
Minton表示,购买提供更短的时间,以及商品使用的简单性和良好的价值。然而,这种简单性通常会带来更高的成本,而这些工具通常在低多样性数据方面效果最佳。如果组织与供应商存在现有的关系,则可以更容易地分析新产品并尝试使用大型数据工具。
许多用于构建大数据系统的流行工具价格低廉或可以免费使用,并且它们可以更容易地利用独特的价值流。其建设路径为大规模和多样化提供了机会,但这些工具可能非常复杂。互操作性往往是管理员面临的最大问题之一。
2.批量与流数据?
Minton说,由Oracle,Hadoop MapReduce和Apache Spark等产品提供的批量数据是描述性的,可以处理大量的数据。他们也可以安排,并经常被用来建立一个数据科学家进行实验的产品平台。
像Apache Kafka,Splunk和Flink这样的产品可以提供能够捕获的流数据功能,以创建潜在的预测模型。Minton表示,使用流式传输数据,其速度胜过数据保真度,但也提供了巨大的规模和多样性。这对于认同DevOps文化的组织更为有用。
3.Kappa vs. lambda架构?
Twitter是lambda架构的一个例子。其数据被分为两个路径,其中一个路径被馈送到速度层进行快速分析,而另一个路径导致批处理和服务层。Minton表示,这种模式使组织能够访问批量和流媒体的见解,并平衡有损流。他说,这里的挑战是人们必须管理两个代码和应用程序基础。
Kappa架构将所有内容都视为流,但它是一个旨在实时保持数据保真度和流程的实时处理。所有数据都将写入不可变日志,以检查更改。其硬件高效,代码较少,这是Minton推荐给开始实施大数据的组织的一种模式。
4.公共云vs私有云?
大数据的公共和私有云需要许多相同的考虑。对于初学者来说,一个组织必须考虑到最适合他们的人才工作的环境。另外,还应该考虑数据来源,安全性和合规性需求,以及弹性消费模型。
5.虚拟化与物理性?
几年前,虚拟化基础设备与物理基础设施的争论更加激烈,Minton说。然而,虚拟化已经发展到可与物理硬件进行竞争,在大数据部署方面也变得类似。它归结为组织的管理员更舒适,适用于其现有的基础设施。
6.DAS vs. NAS?
Minton说,直接连接存储(DAS)以前是部署Hadoop集群的唯一方式。然而,现在IP网络增加了带宽,网络连接存储(NAS)选项对于大数据更为可行。
使用DAS很容易上手,而且该模型与软件定义的概念一致。它是为了处理性能和存储方面的线性增长而开发的,并且它与流式传输数据相当。
网络连接存储(NAS)可以很好地处理多协议需求,提供大规模的效率,并且还可以满足安全性和合规性需求。
本文作者:Conner Forrest
来源:51CTO