最新消息!全球500亿条数据被 Elasticsearch 勒索者删除,中国受灾排第二

 

  2017年1月12日,白帽汇监测到针对全球使用广泛的全文索引引擎Elasticsearch的勒索事件,经过多日的跟进分析,直至2017年1月17日,共有3波勒索者,根据白帽汇FOFA系统对删除之前数据与被删除数据进行对比分析,此次攻击被删除的数据至少500亿条,被删除数据至少450TB。在勒索事件发生后,有1%的Elasticsearch启用了验证插件,另外有2%则关闭了Elasticsearch。

   

【注:以上比特币价格按照事发当日比特币价格换算】

事件回顾

2017年1月12日上午10时

白帽汇发现第一波勒索者,分析统计,发现共有10264台服务器已经遭受攻击,并且还一直持续增长。

攻击者会删除Elasticsearch所有索引信息,并创建一个名为warning的索引,勒索者写入需要支付0.2比特币才给受害者发送数据(目前按照比特币市场价格,约等于150美元),并留下邮箱地址p1l4t0s@sigaint.org。该邮箱域与Mongodb勒索的作者使用的是同一个域,id不同.据了解,此前Mongodb勒索攻击者其实并未备份数据,而是直接删除,而目前确认Elasticsearch也是一样,并未对数据进行备份,而是直接删除全部。 

2017年1月14日中午12时

白帽汇发现第二波勒索者,创建一个名为please_read名字的索引。攻击者留下类似的文字,该勒索信息显示需要支付0.5BTC(按照当天比特币市场价格,约等于400美元)。邮箱elasticsearch@mail2tor.com。

2017年1月16日中午12时

白帽汇发现第三波勒索者,其创建的索引为pleasereadthis.使用的邮箱地址为4rc0s@sigaint.org。

影响范围

截止2017年1月17日,白帽汇通过FOFA系统中的68000余个Elasticsearch进行统计分析,发现目前全球共有9750台存在勒索信息。其中此次被删除的数据达到至少500亿条,被删除数据大小至少450TB。通过两次勒索情况的对比分析,发现有大概1%的Elasticsearch使用了验证插件,另外有2%则关闭Elasticsearch,现在已经无法访问。

白帽汇FOFA系统中显示,互联网上公开可访问的Elasticsearch超过68000余台。其中,共有受害总数9750台。

目前全球中受影响最多的为美国4380台,其次是中国第二944台。法国787台,爱尔兰462台,新加坡418台。以下是Elasticsearch勒索全球分布范围:

 

【Elasticsearch受勒索影响全球分布】

其中,中国受害的有944台。其中,浙江省受影响最严中,有498台,其次是北京,186台,上海52台,湖南43台,上海42台。

【Elasticsearch中国地区受害影响范围】

安全建议

Elasticsearch方便,实用的同时,也引入了安全隐患和数据泄露的风险。

那么如何加强安全防范呢,这里给大家如下安全建议:

1、 增加验证,官方推荐并且经过认证的是shield插件,该项目为收费项目,可以试用30天。网络中也有免费的插件,可以使用elasticsearch-http-basic,searchguard插件。

Shield 可以通过bin/plugin install [github-name]/[repo-name] 形式安装。

2、 使用Nginx搭建反向代理,通过配置Nginx实现对Elasticsearch的认证。

3、 如果是单台部署的Elasticsearch,9200端口不要对外开放。

4、 使用1.7.1以上的版本。在1.7.1以上版本目前还没有爆出过相关漏洞。

5、 另外elasticsearch的官方也有其他产品与Elasticsearch配合紧密的,这些产品也存在漏洞,企业如果有使用其他相关产品存在漏洞也要进行修复,如Logstash,Kibana。

6、 加强服务器安全,安装防病毒软件,使用防火墙,网站安装WAF.并对数据库,系统,后台,使用的服务设置复杂的密码,建议设置16位的大小写字母+特殊字符+数字组合。

       

  本文作者:李勤

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-10-14 10:22:33

最新消息!全球500亿条数据被 Elasticsearch 勒索者删除,中国受灾排第二的相关文章

全球500亿条数据被 Elasticsearch 勒索者删除,中国受灾排第二

编者按:关于 Elasticsearch 勒索事件,雷锋网(公众号:雷锋网)此前已经进行过报道.1月18日,雷锋网收到白帽汇公司关于该事件的最新研究结果.该文转自微信公众号"北京白帽汇科技有限公司",作者为"安全实验室",原文标题为<威胁情报预警:Elasticsearch勒索事件>,雷锋网已获授权. ---- 2017年1月12日,白帽汇监测到针对全球使用广泛的全文索引引擎Elasticsearch的勒索事件,经过多日的跟进分析,直至2017年1月17

全球 500 亿条数据被 Elasticsearch 勒索者删除

该文转自微信公众号"北京白帽汇科技有限公司",作者为"安全实验室",原文标题为< 威胁情报预警:Elasticsearch勒索事件 >,雷锋网已获授权. 2017年1月12日,白帽汇监测到针对全球使用广泛的全文索引引擎Elasticsearch的勒索事件,经过多日的跟进分析,直至2017年1月17日,共有3波勒索者,根据白帽汇FOFA系统对删除之前数据与被删除数据进行对比分析,此次攻击被删除的数据至少500亿条,被删除数据至少450TB.在勒索事件发生后

数据泄漏报告:2016年共泄露14亿条数据

本文讲的是数据泄漏报告:2016年共泄露14亿条数据, 根据数字安全研究公司金雅拓(Gemalto)最新发布的2016年数据泄露水平指数(Breach Level Index)报告显示,2016年发生了约1800次数据泄露事件,造成约14亿条记录泄漏.这一结果几乎是前一年的两倍,这表明不管是网络攻击者还是意外的数据泄漏和内部恶意人员的威胁正在不断增加. 2016年的数据泄漏事件中涉及的个人信息包括姓名.电子邮件地址.密码.出生日期.IP地址甚至物理识别数据等. 2016年数据泄漏总量为去年的两倍

sql server-上亿条数据如何建立合理的索引?

问题描述 上亿条数据如何建立合理的索引? 其中row是从0到44000,col也是从0到44000: 共row*col条数据,就是个矩形的. row,col,X,Y,BX,BY是常查询的. 一般是row和col一起查: X和Y一起查: BX和BY一起查 请问如何建立索引查询时间会加到最低. 对了,由于数据量太大,一个表是2亿条记录以上,如何将索引加在这几个表上呢? Sql server 2008 解决方案 有个计算公式,根据你的数据分布,WHERE条件, SELECT COUNT(DISTINC

求帮助,oracle数据库,查询出每个最新时间的那一条数据

问题描述 求帮助,oracle数据库,查询出每个最新时间的那一条数据 select p.* from (select rownum as 序号 ,n.* from (select sitename as 站点名称, RecordTime as 记录时间 ,decode(avg(case item when 211 then value else null end),0,'0.00000',trim(to_char(avg(case item when 211 then value else nu

oracle语句-求帮助,oracle数据库,查询出每个地方的最新时间的那一条数据

问题描述 求帮助,oracle数据库,查询出每个地方的最新时间的那一条数据 select p.* from (select rownum as 序号 ,n.* from (select sitename as 站点名称, RecordTime as 记录时间 ,decode(avg(case item when 211 then value else null end),0,'0.00000',trim(to_char(avg(case item when 211 then value else

一个系统每小时插入4亿条数据,需要考虑什么问题?

问题描述 一同事去某公司面java开发,面试的时候说到系统设计,面试官问了个问题:一个系统每小时插入4亿条数据,需要考虑什么问题?他当时没有回答出来,回来听到这个问题,我也没有答案.一般rdbms每秒钟顶多上千事务吧,像这种秒10w多的并发插入,怎么处理呢? 问题补充:wyuxiao729 写道 解决方案 这种大的数据库量处理瓶颈在于一个是传输.一个是存储.存储可以通过队列,缓存方案着手.传输这块目前没有好的办法.只能是从硬件来看.你目前的问题太泛了.不好具体到代码实现.应针对具体的环境来分析解

程序每隔2秒读取一次数据表,表数据500多条,数据半年变一次,能不能把这些数据放到内存里,不用每次读库

问题描述 表结构:自动ID帐号密码IDabcxxxIDxyzxxx表很简单.数据500多条,但是使用很频繁,每2秒左右查询一次,用的条件是select密码from表名where帐号=abc,每次都读取关闭,对数据库和程序都有影响.我想问的是.能把这个表放内存里吗?或者其他办法.不用频繁读取数据库也行,谢谢 解决方案 解决方案二:Asp.net?使用Cache缓存数据库吧解决方案三:引用1楼cadust的回复: Asp.net?使用Cache缓存数据库吧 winform程序解决方案四:做一个SER

1亿条数据如何分表100张到Mysql数据库中(PHP)_php技巧

下面通过创建100张表来演示下1亿条数据的分表过程,具体请看下文代码. 当数据量猛增的时候,大家都会选择库表散列等等方式去优化数据读写速度.笔者做了一个简单的尝试,1亿条数据,分100张表.具体实现过程如下: 首先创建100张表: $i=0; while($i<=99){ echo "$newNumber \r\n"; $sql="CREATE TABLE `code_".$i."` ( `full_code` char(10) NOT NULL,