结合重复数据删除和Rowhammer的攻击怎么解?

阿姆斯特丹Vrije
Universiteit大学的研究人员在其最新研究中介绍了结合重复数据删除和Rowhammer漏洞利用的攻击,他们在针对基于JavaScript的新的Microsoft
Edge浏览器概念证明型攻击中采用了这种做法,专家称这是种“巧妙”的攻击方法。

该大学研究人员在其论文中指出,这个漏洞利用可允许攻击者获取任意内存读取/写入访问并“掌控”现代Microsoft Edge浏览器,即便是浏览器完全没有漏洞,且已开启所有防御。

这种攻击利用了Windows 8.1和Windows
10中内存重复数据删除进程,创建基于Rowhammer硬件漏洞的漏洞利用。内存重复数据删除是通过整合包含相同数据的内存页来减少内存使用的常用方法,而Rowhammer漏洞利用可反复访问内存,导致有些DRAM设备的相邻行出现位翻转。

根据Errata Security公司首席执行官Robert Graham表示,这两种类型的漏洞利用都很罕见,使得这种组合非常巧妙,不过目前其使用有限。

“如果你对系统中的情况非常了解的话,这种方法能够从系统中弄出小部分数据,”Graham表示,“它可用于暴露密码或在其他情况下用于发现敏感数据。Rowhammer是物理攻击,而重复数据删除是操作系统的一部分,这意味着机器中任何内容都可能受到攻击。”

Graham指出这里的风险受几个因素影响,首先是攻击者需要知道系统中有什么,从而得以最好地利用这种攻击。此外,这种攻击不会在每台设备上运行。内存重复数据删除漏洞利用需要Windows
8.1或Windows 10以及Microsoft
Edge浏览器中的JavaScript漏洞利用,但Rowhammer仅适用于在某些DRAM芯片上。

Graham表示,Rowhammer并不是攻击者可广泛利用的方式。现在已经有针对DDR3 DRAM芯片更有效的漏洞利用,不过使用DDR4内存的新机器还没有受到影响。经发现,只有某些DDR4芯片容易受到Rowhammer攻击。

“对于漏洞利用,随着时间的推移,它们只会变得更严重。所以,当Rowhammer出现时只是针对DDR3的,现在是针对DDR4,并且与微软功能有交互。”Graham称,“这还会变得更糟。”

作者:Michael Heller

来源:51CTO

时间: 2024-09-10 07:18:18

结合重复数据删除和Rowhammer的攻击怎么解?的相关文章

EMC公司指出,Pure Storage重复数据删除既为内联型、亦为后处理型

EMC公司宣称其由于Pure方面的重复数据删除专利侵权而遭受1400万美元损失--但其同时亦在一份<Pure公司十大谎言>文件中表示,Pure提供的重复数据删除方案并不属于内联功能. 根据Pure方面在马萨诸塞州地方法院上的说法,该公司的重复数据删除功能为后处理型而非内联型. 美国法律禁止有关组织或个人在不同法院中提供相互矛盾的立场. 马萨诸塞州法院接收到的此案由EMC公司于2013年4月所提交,号称Pure方面"勾结众多原EMC员工,以非法诱导方式获取EMC的敏感性信息及商业机密,

测试:Data Domain拔得重复数据删除头筹

重复数据删除技术不仅能够提高企业存储效率,而且可以减少购买磁带或者磁盘等存储设备的需求,从而进一步节省了数据中心空间.能源和冷却资源. 从广义上讲,重复数据删除是一项分析数据文件.找出和删除冗余信息块.并且采用了g-zip或者LZ等压缩算法的技术.一般来讲,那些经常被编辑但是变更很少的文件是重复数据删除的理想对象.因此,不少企业开始考虑采用重复数据删除解决方案来减少企业数据库.电子邮件.服务器信息以及虚拟机镜像的备份和归档所需的存储空间. Data Domain是重复数据删除市场的领导者之一,所

重复数据删除在主存储中的应用

现如今,重复数据删除技术已经不再让人感到陌生,其价值也已经在备份领域获得了充分的体现,如何发挥重复数据删除技术的最大价值就成为厂商们又一个需要思考的问题.重复数据删除技术向主存储 领域的延伸(NetApp公司开了重复数据删除技术在主存储应用的先河),也让我们看到了厂商期待将这项 技术能够发挥更大的价值.在2009年SNW中国大会上,HIFN向大家展示了其BitWackr重复数据删除和数据 缩减技术,笔者也借此机会与HIFN公司中国区销售总监赵强先生就重复数据删除技术在主存储领域有何 价值进行了一

如何使用重复数据删除技术实施主存储优化

主要文件系统存储优化(也就是在同样的空间塞进更多的数据)继续在日益普及.这里的挑战是主存储的重复数据删除并不是没有规则的.你不能删除这个重复的数据,也不能删除那个重复的数据,你必须要认识到删除重复数据之后对设备性能的影响. EMC已经宣布了在自己的Celerra平台上删除重复数据的功能.NetApp使用这个功能已经有一段时间了.其它厂商也以积极的方式增加这个功能,其方法是在数据不流动之后对数据进行压缩和删除重复数据.然后,Storwize等公司一直以在线实时压缩的方式提供这种功能. 正如存储虚拟

Attic - 拥有重复数据删除技术的备份软件

<iframe style="width: 170px; height: 30px;" src="http://ghbtns.com/github-btn.html?user=netkiller&repo=netkiller.github.com&type=watch&count=true&size=large" frameborder="0" scrolling="0" width=&q

磁盘及重复数据删除技术推动云存储

在接下来的两年里预计存储在第三方云存储中的数据会有4倍的增长,而存储在离线磁带介质中的数据预计到2012年则会减少三分之一. 磁盘以及重复数据删除技术推动了云的使用 无穷无尽的数据增长使得人们不得不使用基于磁盘的备份来缓解备份窗口过短的压力,从而释放更多的资源来执行更大的备份任务.而越来越多的能够提高存储利用率的技术比如重复数据删除,也从侧面推动了基于磁盘备份方式的普遍应用.那么,这些趋势如何影响人们对云备份的兴趣呢? 随着IT组织越来越多的采用磁盘备份来降低对磁带的依赖度,将数据以电子的形式保

IBM新版本TSM增加重复数据删除和DB2集成

       [WatchStor独家译文]IBM昨天宣布推出Tivoli Storage Manager (TSM) 6,改版本集成了DB2数据库.TSM存储池子文件层级的重复数据删除功能以及对VMware虚拟机进行自动图像层级备份来备份软件应用.     DB2集成 IBM TSM 6采用了DB2而不是专门的数据库来在目录中追踪目标,这一特点提高了TSM 6的性能和可扩展性.新数据库可以在一个系统下保存多达10亿个目标.之前的数据库可以同时支持两个线程,而新数据库可以同时支持10个. 据IB

哪些企业适合采用重复数据删除技术

随着企业对数据安全的重视程度加强,适合企业不同特性的从存储备份方案也应运而生.重复删除技术就是其中的一种.在这篇中就跟大家谈谈,什么样的企业适合采用重复数据删除技术. 一.数据量大.且冗余大的企业适合使用重复数据删除技术. 在对企业的信息化数据进行存储与备份时,超大的容量一直是项目管理员比较头疼的问题.有不少企业,可能一年就需要升级一下存储设备的容量.在这种情况下,采用重复数据删除技术能够起到一定的效果. 通常情况下,当企业的数据量越大,备份数据中所包含的冗余部分也就越多.虽然说增量的http:

关于重复数据删除的三道选择题

作者:郭涛 5月20日,NetApp公司宣布以15亿美元(现金加股票)的价格收购重复数据删除厂商DataDomain.如果一切顺利,此项收购将在2-4个月内完成.收购DataDomain使得NetApp在重复数据删除市场有了与EMC.IBM等大厂商分庭抗礼的资本. 扩张说与瓶颈说 NetApp收购DataDomain的消息来得突然,却在意料之中.国内一位多年从事数据备份研究的专业人士告诉记者,自从上市以来,DataDomain公司的财务报表一直良好.这可能为DataDomain今日被收购埋下了伏