【Hadoop Summit Tokyo 2016】构建信息平台:集成Hadoop与SAP HANA和HANA VORA

本讲义出自Takuya Okamoto在Hadoop Summit Tokyo 2016上的演讲,在演讲中首先介绍了VUPICO,并分享的数据的商业价值所在以及如何构建信息数据分析平台和集成Hadoop与SAP HANA,最后还分享了如何从Hadoop中获取价值。

时间: 2024-08-26 12:47:42

【Hadoop Summit Tokyo 2016】构建信息平台:集成Hadoop与SAP HANA和HANA VORA的相关文章

【Hadoop Summit Tokyo 2016】服务大众的Hadoop

本讲义出自Amandeep Modgil与David Hamilton在Hadoop Summit Tokyo 2016上的演讲,主要分享了数据湖泊的起源问题.数据的安全性问题.数据治理.修改管理以及企业内的Hadoop工作等相关内容.

【Hadoop Summit Tokyo 2016】为什么我的Hadoop集群运行这么慢?

本讲义出自Bikas Saha在Hadoop Summit Tokyo 2016上的演讲,主要分享了对于Hadoop集群的性能度量与监控.日志记录.以及跟踪和分析等的相关方法和使用到的HBase.HDFS.YARN等相关的开源技术.

【Hadoop Summit Tokyo 2016】构建多租户平台

本讲义出自Grant Priestley在Hadoop Summit Tokyo 2016上的演讲,主要对于多租户平台Hurdles进行了详细介绍,并介绍了多租户的概念和定义以及构建多租户平台的架构设计和技术策略,最后还分享了在构建多租户平台的过程中需要注意的事项.

【Hadoop Summit Tokyo 2016】如何构建成功的数据湖泊

本讲义出自 Alex Gorelik在Hadoop Summit Tokyo 2016上的演讲,主要介绍了数据湖泊的相关概念,介绍了数据湖泊可以赋能数据驱动的决策制定以及最大化商业价值,以及如何通过正确的数据+正确的平台+正确的接口构建成功的数据湖泊.

【Hadoop Summit Tokyo 2016】使用Hadoop来构建实时和批数据的数据质量服务

本讲义出自Alex Lv与Amber Vaidya在Hadoop Summit Tokyo 2016上的演讲,主要分享了构建于Spark和Hadoop上的开源数据质量平台Griffin,Griffin可以用于处理批量数据.实时数据和非结构化的数据,并且构建了统一的过程来检测无效或者不准确等DQ问题,讲义中介绍了eBayGriffin的技术架构.以及用例等.

【Hadoop Summit Tokyo 2016】一个持续部署的Hadoop数据分析平台

本讲义出自Graham Gear在Hadoop Summit Tokyo 2016上的演讲,主要分享了数据工程开发管道的相关内容并介绍了持续部署的Hadoop数据分析平台Cloudera.

【Hadoop Summit Tokyo 2016】Hadoop Common与HDFS中有什么新特性?

本讲义出自Tsuyoshi Ozawa在Hadoop Summit Tokyo 2016上的演讲,主要分享了Hadoop 3 Common与HDFS出现的新特性,因为新版本的Hadoop运行在JDK8上,在应用构建的过程中,所以需要使用JDK8编译源代码,并且新版本的Hadoop具有更好的库管理,并且支持Azure数据湖泊存储,最后还分享了关于脚本重写与Apache Kafka的metrics2插件的相关内容.

【Hadoop Summit Tokyo 2016】Apache Phoenix与HBase:HBase之上SQL的过去,现在和未来

本讲义出自Enis Soztutar与Ankit Singhal在Hadoop Summit Tokyo 2016上的演讲,在他们的演讲中按照HBase之上SQL的过去,现在和未来进行划分进行了分别的讲解,对于"过去"部分讲义中分享了Phoenix的基础.架构和目前具有的特点,在"现在"部分讲义中分享了Phoenix最新的版本以及Phoenix查询服务器,而在未来部分则分享了Calcite的集成以及Phoenix与HBase的相关知识.

【Hadoop Summit Tokyo 2016】企业已经对于云上Hadoop集群做好了准备

本讲义出自Hemanth Yamijala在Hadoop Summit Tokyo 2016上的演讲,主要介绍了Hortonworks云数据平台以及其架构设计,并分享了Hortonworks如何帮助企业做好云数据存储的准备,以及如何帮助企业进行数据治理以及对于数据的可靠性和容错性进行保障.