数据收集需要有条不可逾越的红线

漏洞报告平台乌云网在其官网上公布了一条网络安全漏洞信息,指出携程网安全支付日志可被遍历下载,导致大量用户银行卡信息泄露(包含持卡人姓名身份证、银行卡号、卡CVV码、6位卡Bin),并称该漏洞已经过携程确认。这个事件的重点并不在数据泄露本身,而是从中看到的携程所收集的用户信息内容。这涉及到互联网公司的数据边界问题。

在使用信用卡进行网购的过程中,即便是用户本来设置了交易密码,但进入支付金额这一流程,网站只要求输入身份证号、持卡人姓名、信用卡卡号、信用卡卡背面上三位CVV安全码,交易就宣告成功,根本无需输入信用卡密码。这其实是一种无磁无密的支付通道,就是不用刷卡、不检验密码,只需要提供卡号和信用卡背面三位数的验证码(CVV,又称“后三码”)就能完成支付。这种不用实物卡和密码的交易被称为“无卡支付”,或者叫“无卡无密支付”。主要用于电话支付,归属于信用卡的离线交易。目前国际上这种交易一般适用于酒店、航空公司、铁路客运、租车等类型的商户交易。这确实是一种常态的交易方式,问题的关键在于这些信息那些是网站可以记录的?

用户的身份证号、信用卡号作为交易账户信息可以被记录,但携程无论如何不应该存储用户的CVV码,而且还是明文记录,这相当于拥有用户的信用卡支付密码。用户期望自己的卡不被盗刷只能寄期望于携程的安全保障技术和员工的自律,否者一旦被不法分子持有损失无可避免。

技术安全在攻守之间不断博弈,不断暴露出来的技术漏洞就说明了没有永远安全的技术,而个人自律更为不可靠。互联网时代的大数据需要确认数据收集边界。大数据最大的价值在商业服务领域,商业通过大数据透视了用户深层次的特征和无法显见的内在需求。这与传统的数据分析有相似性却完全不同。传统的数据分析更多的是因果关系的追溯,通过数据所呈现出来的趋势了解某种行动所产生的某类结果。

与传统数据分析的逻辑推理研究不同,大数据研究是对数量巨大的数据做统计性的搜索、比较、聚类和分类等分析归纳,因此继承了统计科学的一些特点。统计学关注数据的相关性或称关联性,所谓“相关性”是指两个或者两个以上变量的取值之间存在某种规律性。“相关分析”的目的是找出数据集里隐藏的相互关系网(关联网),一般用支持度、可信度和兴趣度等参数反映相关性。两个数据A和B有相关性,只反映A和B在去取值时相互有影响,并不能告诉我们有A就一定有B,或者反过来有B就一定有A。这种分析方法决定了大数据所分析的是全局数据,不需要太多的考量精度,通过对所有数据的分析就能洞察细微数据之间的相关性,从而提供指向型商业策略。

正因为大数据时代全局数据分析的的这种特质,让用户隐私保护几乎是一个伪命题。互联网时代我们都清楚我们在网络上的一切行为都可以被服务方知晓,当我们浏览网页、发微博、逛社交网站、网络购物的时候,所有的一举一动实际上都被系统监视着。网络用户面对互联网公司的数据收集、分析避无可避,每个人只要在网络中生存就必然数字化。同时互联网公司对所服务的用户进行信息分析是公司能提供更为贴心服务的基础,只有全局洞察用户才能在用户需要的时候适时出现。互联网公司即便站在不作恶的角度上也有动力去收集用户的全局数据。但对于类似用户信用卡cvv码、用户交易密码这种数据无论如何不能收集,否者便是故意作恶(沈禄政/文)。

时间: 2024-09-20 05:56:34

数据收集需要有条不可逾越的红线的相关文章

网站数据收集、整理、分析的方法和技巧

中介交易 SEO诊断 淘宝客 云主机 技术大厅 任务要求: 2010年10月18日中午12:00,入门任务第二期的任务开始,任务如下,对当前网络下的所有链接平台进行数据的收集整理和分析. 任务目的: 这次任务主要是锻炼我们的是几个力:执行力,耐力,分析能力,吃苦能力,这个是考验一个人工作是不是有耐心,会不会去动脑做事情,在收集的过程中,总是复制,粘贴这些枯燥无味并且重复性的工作,也是对一个人体力和眼力的考验.这个工作在第一个任务中也有对这方面的考验. 收集平台和整理平台可以说是另外一个力:苦力,

SQL Server 2008中数据收集器和管理数据仓库

08年8月份发布的SQL Server 2008充满了许多新特性.其中一个新特性就是数据收集器.与这一新特性相关联的是管理数据仓库(MDW).数据收集器功能非常强大,数据库管理员借助这一工具,能够收集不同来源的统计数据,而管理数据仓库就是用来存放存储这些数据. 一.什么是数据收集器? 数据收集器是SQL Server 服务器上的一个核心组件,它收集来自多种来源的数据,并将收集的数据存储在称为管理数据仓库的关系数据库中.数据采集器使用SSIS和SQL 代理的作业来实现这一功能. 数据收集器按照不同

网站统计中的数据收集原理及实现

网站数据统计分析工具是网站站长和运营人员经常使用的一种工具,比较常用的有谷歌分析.百度统计和腾讯分析等等.所有这些统计分析工具的第一步都是网站访问数据的收集.目前主流的数据收集方式基本都是基于javascript的.本文将简要分析这种数据收集的原理,并一步一步实际搭建一个实际的数据收集系统. 数据收集原理分析 简单来说,网站统计分析工具需要收集到用户浏览目标网站的行为(如打开某网页.点击某按钮.将商品加入购物车等)及行为附加数据(如某下单行为产生的订单金额等).早期的网站统计往往只收集一种用户行

Pokémon Go数据收集是否带来隐私问题

本文讲的是Pokémon Go数据收集是否带来隐私问题,热门智能手机游戏Pokémon Go带来各种安全问题,例如美国国家安全委员会警告驾驶员不要在开车时玩这个游戏,并建议行人在玩游戏时注意安全. 美国参议员Al Franken是隐私倡导者,他认为该游戏从其用户(包括儿童)收集的大量数据可能带来隐私问题,无论这些数据是否用于其他目的. Franken在写给该游戏开发商Niantic公司首席执行官John Hanke的信中谈到:"我担心Niantic可能不必要地收集.使用和共享大量用户个人信息,而

使用nginx lua实现网站统计中的数据收集

网站数据统计分析工具是网站站长和运营人员经常使用的一种工具,比较常用的有谷歌分析.百度统计和腾讯分析等等.所有这些统计分析工具的第一步都是网站访问数据的收集.目前主流的数据收集方式基本都是基于javascript的.本文将简要分析这种数据收集的原理,并一步一步实际搭建一个实际的数据收集系统. 数据收集原理分析 简单来说,网站统计分析工具需要收集到用户浏览目标网站的行为(如打开某网页.点击某按钮.将商品加入购物车等)及行为附加数据(如某下单行为产生的订单金额等).早期的网站统计往往只收集一种用户行

wsn 数据收集-wsn中基于移动SINK的高效数据收集算法

问题描述 wsn中基于移动SINK的高效数据收集算法 哪位大神可以帮帮忙CSDN移动问答 其中最短路径用佛洛依德算法实现最好

阿里巴巴、Facebook、Cloudera等巨头的数据收集框架全攻略

互联网的发展,带来了日新月异的业务种类,随着业务的增长,随之而来的,是业务日志指数的递增.一些公司每条业务线, 提供服务的线上服务器就达几百台之多, 每天的日志量超百亿.如何能够将散落在各服务器上的日志数据高效的收集汇总起来, 成了在数据分析处理之前必须解决的问题. 一个优秀的数据收集框架,需要具备三点特性,一是低延迟,二是可扩展,三是容错性. 低延迟:从Log数据产生到能够对其做分析,希望尽可能快的完成数据的收集.在批处理或者离线分析中,对数据的实时性要求并不高,但是随着大数据的发展,实时计算

网站分析数据收集方式详解:Web日志JS标记和包嗅探器

中介交易 SEO诊断 淘宝客 云主机 技术大厅 回顾网站分析历史,从"您是第***位来访用户"到现在百家齐放的专业工具提供商,网站分析已经逐渐发展衍化成一门科学.但面对形态各异的分析数据,很多人仍然困惑于数据的来源,了解网站分析数据的收集原理,也许对你解决这些困惑有所帮助. 眼下网站分析数据主要有三种收集方式:Web日志.JavaScript标记和包嗅探器. 1. Web日志 下图是Web日志收集数据过程的示意图. 从上图可以看出网站分析数据的收集从网站访问者输入URL向网站服务器发出

“隐私—数据收集”问题的两难分析

"隐私-数据收集"问题的两难分析--基于斯皮内洛道德分析框架的视角 An Analysis of the Dilemma from "Privacy and Data Collection":Based on Spinello's Moral Analytical Framework 内容提要:在大数据时代,信息开放与隐私保护由于性质差异,已成为一对天然矛盾体.斯皮内洛将"善"置于道德核心的道德分析框架,为这一网络问题的解决提供了理论指导.但在具