数据混淆技术能有效地防止数据泄漏吗?

对于企业而言,数据泄露事故的影响可能是灾难性的,并失去客户的信心和信任,面临经济惩罚和其他严重后果。根据Ponemon研究所2016年数据泄漏事故成本研究显示,数据泄露事故的平均总成本是400万美元,这比2013年增加了29%。每条泄露记录的平均成本是158美元,而医疗保健和零售业每条泄露记录的平均成本分别是355美元和129美元。尽管数据泄露威胁有着极高的风险,企业仍然是数据泄露的受害者,对此,企业开始非常重视对企业拥有、处理和存储数据的保护。

虽然外部威胁仍然是高优先处理事项,但对敏感数据的威胁同样来自内部人员。员工窃取客户信息、个人可识别信息或信用卡详细信息都是真实的威胁,这是因为在大多数情况下,系统管理或数据库管理员等特权用户被授予对数据的访问权限。通常,生产环境的实际数据会拷贝到非生产环境,非生产环境并不太安全,也没有部署与生产环境相同的安全控制,这些数据很可能被泄露或窃取。

数据混淆技术提供了不同的方式来确保数据不会落入错误的人手中,并且,只有少数个人可访问敏感信息,同时还可确保满足业务需求。

什么是数据混淆?

在技术领域,数据混淆(也成为数据掩蔽)是将测试或开发环境中现有的敏感信息替换为看起来像真实生产信息的信息,但这些信息无法被任何人滥用。换句话说,测试或开发环境的用户不需要看到真实生产数据,只要这些数据与真实数据相似即可。

因此,数据混淆计划被用于保护数据,它可帮助掩蔽非生产环境中包含的敏感信息,让企业可缓解数据泄露的风险。

对数据混淆技术的需求

企业通常需要将生产数据库中存储的生产数据复制到非生产或测试数据库,这样做是为了真实地完成应用功能测试以及涵盖实时场景或最大限度减少生产漏洞或缺陷。这种做法的影响是,非生产环境很容易成为网络罪犯或恶意内部人员的简易目标,让他们可轻松地获取敏感数据。由于非生产环境并没有像生产环境那样受到严格控制和管理,当数据泄露事故发生时,企业可能需要花费数百万美元修复声誉损害或者品牌价值损失。

监管要求是数据混淆技术的另一个关键驱动因素。例如,支付卡行业数据安全标准(PCI DSS)鼓励商家加强支付卡数据安全,广泛部署一致的数据安全做法,满足技术和操作要求。

PCI DSS要求商家的生产环境和信息不能用于测试和开发。不当的数据泄露(无论是意外还是恶意事件)都会带来毁灭性后果,并可能导致高昂的罚款或法律行为。

数据混淆用例

数据混淆技术的典型用例是当开发环境数据库交由第三方供应商或外包商处理和管理时;数据混淆是确保第三方供应商可执行其职责及功能非常重要的工具。通过部署数据混淆技术,企业可使用数据库中相似值来替换敏感信息,而不必担心第三方供应商在开发期间暴露该信息。

另一个典型用例是在零售业,零售商需要与市场研究公司共享客户销售点数据以运用高级分析算法来分析客户的购买模式和趋势。零售商不必向研究公司提供真实的客户数据,而可提供类似真实客户数据的替代数据。这种方法可帮助企业减少通过业务合作伙伴或其他第三方供应商泄露数据的风险。

作者:邹铮译

来源:51CTO

时间: 2024-10-26 05:16:58

数据混淆技术能有效地防止数据泄漏吗?的相关文章

数据存储技术取得突破,存储数据需“开源”更需“节流”

日前,IBM研究团队成功地通过"孤立原子"(solitary atom)的方式创造出了全世界最小的磁体.具体的思路是,现有的数据存储技术及硬盘在存储数据时,大多需通过磁头磁化磁层上的介质,每存储1bit数据大约需要10万粒原子,而IBM通过"孤立原子"的方式,使数据存储的硬盘体积缩小了1000倍. 对此,该团队在<自然>(Nature)杂志上发文称,这一突破将为人类带来令人兴奋的全新数据存储系统. 如今,移动计算和云计算飞速发展,全球数据量随之猛增.数据

哪些企业适合采用重复数据删除技术

随着企业对数据安全的重视程度加强,适合企业不同特性的从存储备份方案也应运而生.重复删除技术就是其中的一种.在这篇中就跟大家谈谈,什么样的企业适合采用重复数据删除技术. 一.数据量大.且冗余大的企业适合使用重复数据删除技术. 在对企业的信息化数据进行存储与备份时,超大的容量一直是项目管理员比较头疼的问题.有不少企业,可能一年就需要升级一下存储设备的容量.在这种情况下,采用重复数据删除技术能够起到一定的效果. 通常情况下,当企业的数据量越大,备份数据中所包含的冗余部分也就越多.虽然说增量的http:

数据中心技术竞争最前线

随着数据中心市场规模不断扩大,越来越多的厂商参与进来,这也使得市场竞争日益激烈化.作为信息技术的战略高地,小到个体企业,大到国家政府无不关心和投入到数据中心市场中来,无技术积累的价格战在这个市场里已无生存空间,谁的技术最具创新性,谁的技术最有发展前景,谁就能在这个市场里站稳脚跟,掌握核心技术是在数据中心市场里唯一的生存法则.然而,技术是一种高风险.高回报的生意.很多技术在还没有走进市场就已经销声匿迹,投入到技术研究之中的科研资金就打了水漂,还有很多技术经不起实践的考验也会慢慢消失,这个过程是极其

企业级大数据备份:十问重复数据删除技术

仅仅在几年以前,重复数据删除还是一个独立的功能,重复数据删除为企业备份和归档部门的存储系统提供另一种选择.同时也在云端网关找到了新的用途,当数据进入阵列或虚拟磁带库之前过滤掉不必要的数据块.现在,它已经成为统一计算系统预先集成的功能.而了解如何更有效的使用这项技术成为一种需求.于此同时IT经理应该重新审视存储问题并询问为其提供存储的供应商. 1. 重复数据删除技术对备份性能将产生什么影响? 对于业务成倍增长的大型企业来说高性能是至关重要的.同时企业还需在有限的备份环境内确保海量数据备份环境的安全

CIO关注:重复数据删除技术避免存储黑洞

       企业信息系统选型宝典存储备份漫长的等待时间,和瞬间海量数据的增长,对于CIO来说都是一个痛苦的过程.他们眼看着宝贵的存储资源在慢慢被耗尽,又束手无策.数据备份和恢复,是保证企业信息安全的必由之路,但如何有效地利用存储资源,从而缓解存储压力,重复数据删除技术给CIO们提供了一个不错的选择. 机遇 OPPORTUNITY Gartner认为,在未来18个月内,重复数据删除技术(DataDe-duplication)将扮演重要的角色,以帮助企业得以自如地控制日益堆积如山的数据,以达到企业

挑战传统数据建模技术 大数据工具成趋势

汹涌而来的大数据浪潮正在改变数据建模技术,包括模式的创建.这个观点在2016年圣地亚哥举办的EDW(企业数据世界)会议上提出,数据专业人员应该及时做出调整,适应形势的变化. 凭借海量数据和不同的数据结构,大数据的冲击也为NoSQL.Hadoop.Spark等带来了新的技术形式.尤其是NoSQL,呼吁在建立数据模型技术上做出改变. 2016年在圣地亚哥举办的EDW(企业数据世界)会议上,一些数据专家建议应该学习一些基本的命令,尤其是涉及到NoSQL数据库的,如MongoDB,Cassandra和R

流式大数据实时处理技术、平台及应用

摘要:大数据处理系统根据其时效性可分为批式大数据和流式大数据两类.上述两类系统均无法满足"事中"感知查询分析处理模式的需求.为此,从分析大数据应用场景入手,提出了"流立方"流式大数据实时处理技术和平台,在完整大数据集上实现了低迟滞.高实时的即席查询分析.目前基于"流立方"平台开发的业务系统已应用到金融风控反欺诈.机器防御等领域,具有广阔的应用前景. 1.引言 大数据技术的广泛应用使其成为引领众多行业技术进步.促进效益增长的关键支撑技术.根据数据处

Oracle下的数据分片技术

oracle|数据  Oracle数据分片技术作者:流方 主页:http://liulee.myrice.com Oracle公司出品的ORACLE Enterprise 8.0.5以其优越的性能博得了广大用户的青睐,它以丰富的内嵌函数,PL/SQL支持,多平台,Application Server集成等,给开发人员提供了极大的灵活性. 在ORACLE的用户权限分配中,只提供对表.函数.同义词.视图.包等的Insert,Update,Select,Delete,Execute等操作,并未提供字段

微软的数据访问技术小结

访问|数据|微软 微软的数据访问技术大体有以下几类:一.UDA(UniversalDataAccess)这是微软提供的通用数据访问策略.包括ADO.OLEDB和ODBC.它不光提供了数据库的访问能力,对于其它的数据存储技术也同样支持,如目录服务.Excel的表格数据和Exchange服务器数据等. 二.ODBC(OpenDatabaseConnectivity)这是目前公认的最好的数据访问技术.ODBC结构包含了一个普通的基于SQL的API,它利用对应的驱动程序来开发特定的数据库程序.该技术市场