威胁蔓延 Hadoop集群面临勒索风险

2017年初,大数据生态基础软件就陷入了一场全球范围内的大规模勒索攻击。随着MongoDB、ElasticSearch等软件系统遭遇勒索攻击以外,战火已经蔓延到Hadoop集群系统,黑客删除或破坏用户数据后,利用比特币平台进行匿名勒索,称缴纳赎金以后才能提供恢复数据的方法。该事件已在全世界范围内造成了广泛的影响并给相关组织造成了严重的经济损失。

勒索事件综述:

从2016年12月27日发现一些裸奔的MongoDB用户数据被黑客删除起截至2017年2月3日根据shodan.io的统计结果显示,在中国有15046个放在公网上的MangoDB数据库,其中没有设置账户密码的占绝大部分,具体数据如下图所示:

2017年1月17日据国内某知名威胁情报预警机构对68000余个Elasticsearch进行统计分析,发现目前全球共有9750台存在勒索信息。其中此次被删除的数据达到至少500亿条,被删除数据大小至少450TB。通过对比分析,发现有大概1%的Elasticsearch使用了身份验证插件,另外有2%则关闭Elasticsearch,现在已经无法访问。目前全球中受影响最多的为美国4380台,其次是中国第二944台。法国787台,爱尔兰462台,新加坡418台。以下是Elasticsearch勒索全球分布范围:

2017年1月12日,网络专家 Naill Merrigan 就发现有黑客组织 NODATA4U 已专门锁定 Hadoop ,之后几天内就出现了 115 个受害者。另一位安全研究人员 Victor Gevers 也表示,自己已发现了126 起 Hadoop 攻击事件。

根据shodan.io的统计结果显示,在中国有8300多个Hadoop集群的50070端口暴露在公网上,如下图所示:

这些勒索攻击的攻击模式都较为相似,在整个攻击过程中并没有涉及常规漏洞,而是利用这些产品的不安全配置,轻而易举地对数据进行操作。大数据基础软件在大数据领域到底有多重要?大数据基础软件的安全为何如此脆弱?关闭相应端口、启用Kerberos等身份认证体系是不是足以应对这类攻击?

大数据基础软件与大数据:

DT时代,发展大数据产业成为国家战略,没有大数据安全就没有大数据产业发展的基础。以“Hadoop、Hbase等”为核心的基础软件由于其开源、易扩展等优势,目前已成为应用最广泛的大数据基础软件,而且短期内这种势态不会有质的改变。要保证当前大数据的安全,“Hadoop、Hbase”等基础软件的安全首当其冲。如果不采取有效的措施,类似于上述威胁大数据安全的勒索事件将会越来越频繁。

现有解决方案的弊端:

MongoDB、ElasticSearch虽然遭受攻击,但其软件本身就具备设置用户名密码的功能,只不过许多人忽略安全的重要性,没有开启。但原生Hadoop天然就没有用户名密码这样的功能,因此在面临勒索攻击的时候十分被动。默认情况下是没有面对此类问题,大多数用户想到并采用的解决办法是关闭相应端口、启用Kerberos等身份认证机制。但是仅仅只是关闭端口可能造成应用无法在互联网上提供正常的对外服务,即使只允许内网访问,Hadoop也存在通过内网破坏数据的可能性。而启用Kerberos身份认证机制的配置又极其复杂,导致许多用户无法完成。
简单异行的补充方案:

北京观数科技在2017年春节期间针对此类问题专门研发了一款免费工具“BIG DAF反勒索应急包”。该工具包可对抗目前黑客组织利用Hadoop等相关产品的不安全配置进行的勒索攻击。其作用是为Hadoop的默认访问提供了增加用户名和密码的身份验证功能,安装以后访问50070端口时,无论WebHDFS还是RPC HDFS协议,都需要输入用户名和密码验证才可以正常工作。可使用户不再担心因关闭端口造成通过互联网的正常服务中断,也无需担忧启用Kerberos等身份认证机制的繁杂配置。该方案可单独使用,也可与防火墙、Kerberos结合,进而起到更全面的防护效果。

该工具的配置十分简单,下载安装后,在gateway.properties文件中为Hadoop 添加用户名和密码:vi conf/gateway.properties

本文转自d1net(转载)

时间: 2024-08-04 10:17:20

威胁蔓延 Hadoop集群面临勒索风险的相关文章

你的大数据安全么?“Hadoop集群遭遇勒索软件攻击 ”

免费开通大数据服务:https://www.aliyun.com/product/odps 近期,各大安全组织检测到勒索软件正在攻击Hadoop集群,再次表明黑客正在尝试从"大数据"中获利,你的数据资产有没有被黑客get了? ◇◆◇◆◇ 勒索软件攻击Hadoop事件综述 最近,部分黑客组织针对几款特定产品展开了勒索攻击.截止到上周,已有至少34000多台MongoDB数据库被黑客组织入侵,数据库中的数据被黑客擦除并索要赎金.随后,在2017年1月18日当天,又有数百台ElasticSe

Hadoop集群遭遇勒索软件攻击 据称中国有8300多个Hadoop集群暴露在互联网上

继上周绿盟科技发布 ElasticSearch专项报告 以来,又监测到勒索软件正在攻击Hadoop集群,这再次表明黑客正在尝试从"大数据"中获利,绿盟科技给出的建议是关闭端口.启用安全认证机制.使用WVSS Web应用漏洞扫描等方式进行安全扫描.绿盟科技发布的专项报告全文如下: 勒索软件攻击Hadoop事件综述 最近,部分黑客组织针对几款特定产品展开了勒索攻击.截止到上周,已有至少34000多台MongoDB数据库被黑客组织入侵,数据库中的数据被黑客擦除并索要赎金.随后,在2017年1

《Hadoop实战第2版》——1.7节Hadoop集群安全策略

1.7 Hadoop集群安全策略众所周知,Hadoop的优势在于其能够将廉价的普通PC组织成能够高效稳定处理事务的大型集群,企业正是利用这一特点来构架Hadoop集群.获取海量数据的高效处理能力的.但是,Hadoop集群搭建起来后如何保证它安全稳定地运行呢?旧版本的Hadoop中没有完善的安全策略,导致Hadoop集群面临很多风险,例如,用户可以以任何身份访问HDFS或MapReduce集群,可以在Hadoop集群上运行自己的代码来冒充Hadoop集群的服务,任何未被授权的用户都可以访问Data

为Hadoop集群选择合适的硬件配置

随着Apache Hadoop的起步,云客户的增多面临的首要问题就是如何为他们新的的Hadoop集群选择合适的硬件. 尽管Hadoop被设计为运行在行业标准的硬件上,提出一个理想的集群配置不想提供硬件规格列表那么简单. 选择硬件,为给定的负载在性能和经济性提供最佳平衡是需要测试和验证其有效性.(比如,IO密集型工作负载的用户将会为每个核心主轴投资更多). 在这个博客帖子中,你将会学到一些工作负载评估的原则和它在硬件选择中起着至关重要的作用.在这个过程中,你也将学到Hadoop管理员应该考虑到各种

在Docker上建立多节点的Hadoop集群

在上篇文章中你已经看到了在你的devbox创建一个单点Hadoop 集群是多么简单. 现在我们提高门槛,在Docker上创建一个多点hadoop集群.在开始前,确保你有最新的Ambari镜像: 一行命令 一旦你得到了最新的镜像,你就可以启动Docker容器.我们已经创建了几个shell 函数来帮你输入Docker命令,从而避免输入像docker run [options] image [command]这样冗长的命令. 有了这些功能,创建3个节点的hadoop簇,只需要下面一行代码搞定: 默认参

在 Docker 上建立多节点的 Hadoop 集群 【已翻译100%】

在上篇文章中你已经看到了在你的devbox创建一个单点Hadoop 集群是多么简单. 现在我们提高门槛,在Docker上创建一个多点hadoop集群.在开始前,确保你有最新的Ambari镜像: docker pull sequenceiq/ambari:latest 一行命令 一旦你得到了最新的镜像,你就可以启动Docker容器.我们已经创建了几个shell 函数来帮你输入Docker命令,从而避免输入像docker run [options] image [command]这样冗长的命令. 有

文档式数据库在Hadoop集群中的应用

2013年11月22-23日,作为国内唯一专注于Hadoop技术与应用分享的大规模行业盛会,2013 Hadoop中国技术峰会(China Hadoop Summit 2013)于北京福朋喜来登集团酒店隆重举行.来自国内外各行业领域的近千名CIO.CTO.架构师.IT经理.咨询顾问.工程师.Hadoop技术爱好者,以及从事Hadoop研究与推广的IT厂商和技术专家将共襄盛举. 在SQL&NoSQL专场,来自巨彬软件的CTO王涛做了<文档式数据库在Hadoop集群中的应用>演讲,从大数据

手动安装Hadoop集群的过程

最近又安装 Hadoop 集群,由于一些原因,没有使用 Hadoop 管理工具或者自动化安装脚本来安装集群,而是手动一步步的来安装,本篇文章主要是记录我手动安装 Hadoop 集群的过程,给大家做个参考. 这里所说的手动安装,是指一步步的通过脚本来安装集群,并不是使用一键安装脚本或者一些管理界面来安装. 开始之前,还是说明一下环境: 操作系统:CentOs6.4 CDH版本:4.7.0 节点数:4个 在开始之前,你可以看看我以前写的一篇文章 使用yum安装CDH Hadoop集群,因为有些细节已

Ubuntu12.04 Server下安装部署Cloudera Hadoop集群

部署环境 OS: Ubuntu12.04 Server Hadoop:CDH3U6 机器列表:namenode 192.168.71.46:datanode 192.168.71.202,192.168.71.203,192.168.71.204 安装Hadoop 添加软件源 /etc/apt/sources.list.d/cloudera-3u6.list 插入 deb  http://192.168.52.100/hadoop maverick-cdh3 contrib deb-src  h