Cloudera最近发布了一条关于Rhino项目和Apache Hadoop中静态数据(data at-rest)加密的新闻。Rhino项目是由Cloudera、Intel和Hadoop社区合力打造的一个项目。这个项目旨在为数据保护提供一个全面的安全框架。
Hadoop中的数据加密有两方面:静态数据,存在持久存储器上的数据,如硬盘;传输数据,数据从一个进程或系统传输到另一个进程或系统。大部分 Hadoop组件提供了对传输数据加密的功能,但是不支持对静态数据进行加密。安全监管机构,如HIPAA、PCI DSS和FISMA,也提倡要注意数据保护和加密。
Rhino项目为HBase 0.98贡献了关键的安全特性。它提供了数据单元(cell)级别的加密和细粒度访问权限控制的功能。
InfoQ最近和Cloudera安全部门的产品经理Steven Ross进行了交谈,了解到了Rhino项目的更多信息。
InfoQ:Rhino项目是何时启动的?这个项目的目标是什么?
Steven Ross:为了推动一个全面的、用于Apache Hadoop数据保护的安全框架的开发,Intel在2013年早期发起了Rhino项目的倡议,并为项目制定了几个大目标:
利用硬件提升加密性能为Hadoop支持企业级认证和单点登录服务为Hadoop提供基于角色的访问权限控制功能,并在HBase中支持数据单元粒度的权限控制确保对Apache Hadoop重要组件的一致性审查
InfoQ:Rhino项目是一个综合性项目。Apache Sentry也被包含在Rhino项目中。Rhino包含了哪些不同的子项目,能请你分享一些这些项目的细节吗?
SR:在2013年的夏天,Cloudera发布的开源软件成为Apache Sentry项目(孵化中)的基础。这个项目得到了Oracle、IBM和Intel工程师们的鼎力相助。Apache Sentry为Hadoop集群的数据和元数据提供了细粒度的认证支持,并且已经被一些大型企业部署在产品中。
Cloudera和Intel有着战略伙伴关系。来自两个团队的安全架构师和工程师都已重申了加速对Apache Hadoop安全功能开发的承诺。为Apache Hadoop开发出更健壮的认证机制,Rhino项目和Apache Sentry的目标是完全一致的。两家公司的安全专家的成果已经被合并在一起,并且他们现在在这两个项目上都有投入。
InfoQ:Apache Sentry是个什么样的项目?
SR:Apache Sentry(孵化中)是一个高度模块化的系统。它为存储在Apache Hadoop集群中的数据和元数据提供了细粒度的、基于角色的认证功能。
Hadoop生态圈中的项目有着各自不同的、需要单独配置的认证系统。Hadoop的灵活性使得生态圈中不同的项目(如Hive、Solr、 MapReduce,Pig)能访问相同的数据。由于每个项目的认证配置都是独立的,管理员很可能在企图保证策略一致的情况下得到不一致的、相重叠的策 略。
Sentry提供了一套集中的策略。这套策略能被应用于许多不同的访问途径。通过这个方法,Sentry解决了这个IT管理和安全上的挑战。因此,IT管理员能够对数据集进行权限设置。并且知道无论通过何种途径访问数据,这些权限控制都会得到一致地执行。
Sentry的技术细节:
Sentry通过一组特权,如SELECT和INSERT,控制着对Hive Metastore中每个schema对象的访问。schema对象是数据管理中常见的实体,例如SERVER、DATABASE、TABLE、 COLUMN和URI,也就是HDFS中文件的位置。Cloudera Search有它自己的一组特权(如QUERY)和对象(如COLLECTION)。
和IT团队已经熟悉的其他RBAC系统一样,Sentry提供了:
有层次结构的对象,自动地从上层对象继承权限;包含了一组多个对象/权限对的规则;用户组可以被授予一个或多个角色;用户可以被指定到一个或多个用户组中。
Sentry通常被配制成默认不允许访问服务和数据。因此,在被划分到设有指定访问角色的用户组之前,用户只有有限的权限访问系统。
InfoQ:什么是高级加密标准新指令(Advanced Encryption Standard New Instructions,AES-NI)?它和Rhino项目有什么关系?
SR:Intel AES-NI是Intel Xeon处理器系列和Intel Core处理器系列中新的加密指令集。它对高级加密标准(AES)算法进行了改进,并提高了数据的加密速度。
当启用加密时,企业主要关心的是CPU所需的“开销”。这些“开销”会导致数据的存储和获取操作变慢。AES-NI将加密处理的工作交由专门的硬件负责。这个硬件能够更快地完成加密和解密操作,从而减小CPU的负载。
AES-NI对Rhino项目中那些加密子项目的成功起到了重要的作用。然而并没有要求使用HDFS加密的Hadoop用户必须使用Intel芯片或者AES-NI。尽管这些技术确实能在开启加密时改善加密/解密的性能,降低对系统性能的影响。
InfoQ:Rihno项目未来的路线图是什么样的?
SR:下一步,Rhino项目的大目标很可能保持不变。而其下的子项目(这些子项目通常会以两种形式存在,Apache项目或者已存在项目中的一些JIRA)有可能会逐步发展。在达到HBase细粒度安全(如上所述)的里程碑后,另两个子项目当前正在势头上:
HDFS静态数据的加密。统一认证:致力于提供一套强制执行的访问策略,且不关心用户访问数据的方式,不论是Hive、MapReduce或其他访问途径。这项工作正在通过Apache Sentry项目完成。
所有集成工作已经完成,整个解决方案的测试和文档编写工作也已全面完成。
Rhino项目实现了Apache Hadoop(以及其他相关的Apahce项目)一部分的子项目。CDH捆绑了Apache Hadoop和生态圈中其他相关的项目。
查看英文原文:Data Encryption in Apache Hadoop with Project Rhino - Q&A with Steven Ross