支付宝回应支付信息遭搜索引擎抓取:不含重要隐私

  支付宝回应支付信息遭搜索引擎抓取:不含重要隐私(TechWeb配图)

  【TechWeb报道】3月28日消息,昨日有网友爆料称支付宝转账信息能够被谷歌抓取,大量用户隐私信息被泄露。对此支付宝做出官方回应,称付款结果页面一般用于支付双方展示支付结果,不含用户真实姓名、密码等重要信息。

  据称,在谷歌中搜索“site:shenghuo.alipay.com 转账付款”后,能出现大量支付宝转账信息,包括付款账户、收款账户、付款金额、付款说明以及付款信息,在一些备注中,还有付(收)款人的姓名、电话和地址,这些信息中有些是淘宝交易的付款记录,也有普通的支付宝转账。

  此事引发业界及支付宝用户热议。今日凌晨,支付宝方面就此事做出官方回应,称这一页面链接加具了安全保护,正常情况下任何搜索引擎都无法抓取。“初步调查后发现,不排除有少量用户将自己付款结果页面分享到公共区域,造成某些搜索引擎可以爬取。”

  支付宝称,已将用户付款页面做部分信息隐藏,进一步帮助用户保护个人隐私。(恰克)

  相关阅读:

  支付宝曝重大漏洞:交易记录可被搜索

时间: 2024-09-22 14:05:13

支付宝回应支付信息遭搜索引擎抓取:不含重要隐私的相关文章

你如何看待支付宝转账信息被搜索引擎抓取?

今天上微博看到一条很让人震惊的信息,不看还真不知道,一看吓了一大跳,支付宝转账信息既然被搜索引擎抓取了.有人会问到,这是怎么回事呢? 支付宝转账信息爆光 一开始笔者也不太相信,但看按照月光博客的方法在百度搜索" site:shenghuo.alipay.com ",看到的收录真让人吃惊,如下图吧.笔者特意找了一条收录的信息,由于这条收录的在首页,很容易就看到了,我也特意点击了百度快照看了一下,点击进去,里面的个人付款信息都能看到,按理说这是属于个人隐私信息,支付宝应该知道的,不能让蜘蛛

搜索引擎抓取算法

摘要: 搜索引擎看似简单的抓取-入库-查询工作,但其中各个环节暗含的算法却十分复杂.搜索引擎抓取页面工作靠蜘蛛(Spider)来完成,抓取动作很容易实现,但是抓取哪些页面,优先抓取哪些 搜索引擎看似简单的抓取-入库-查询工作,但其中各个环节暗含的算法却十分复杂.搜索引擎抓取页面工作靠蜘蛛(Spider)来完成,抓取动作很容易实现,但是抓取哪些页面,优先抓取哪些页面却需要算法来决定,下面介绍几个抓取算法: 1.宽度优先抓取策略: 我们都知道,大部分网站都是按照树状图来完成页面分布的,那么在一个树状

搜索引擎抓取网页原理学习笔记

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 做正规seo技术必会的搜索引擎抓取网页原理应该是很复杂的.可以写洋洋洒洒的长篇论文.这里就将我自己学习到的网页抓取原理记录一下.笔记应该不够完整只将重要过程做个介绍 首先抓取页面的工作需要分配个搜索引擎蜘蛛.也就是机器人了.每个搜索引擎都有大量的蜘蛛供其差遣.在如今这个信息更新极快得年代每个蜘蛛都不会闲着.搜索引擎给每只蜘蛛分配了大量网址.确

如何让搜索引擎抓取AJAX内容

越来越多的网站,开始采用"单页面结构"(Single-page application). 整个网站只有一张网页,采用Ajax技术,根据用户的输入,加载不同的内容. 这种做法的好处是用户体验好.节省流量,缺点是AJAX内容无法被搜索引擎抓取.举例来说,你有一个网站. http://example.com 用户通过井号结构的URL,看到不同的内容. http://example.com#1 http://example.com#2 http://example.com#3 但是,搜索引擎

如何让搜索引擎抓取AJAX内容解决方案_php实例

越来越多的网站,开始采用"单页面结构"(Single-page application). 整个网站只有一张网页,采用Ajax技术,根据用户的输入,加载不同的内容. 这种做法的好处是用户体验好.节省流量,缺点是AJAX内容无法被搜索引擎抓取.举例来说,你有一个网站. http://example.com 用户通过井号结构的URL,看到不同的内容. http://example.com#1 http://example.com#2 http://example.com#3 但是,搜索引擎

如何让搜索引擎抓取AJAX内容?

越来越多的网站,开始采用"单页面结构"(Single-page application). 整个网站只有一张网页,采用Ajax技术,根据用户的输入,加载不同的内容. 这种做法的好处是用户体验好.节省流量,缺点是AJAX内容无法被搜索引擎抓取.举例来说,你有一个网站. http://example.com 用户通过井号结构的URL,看到不同的内容. http://example.com#1 http://example.com#2 http://example.com#3 但是,搜索引擎

提高网页被搜索引擎抓取、索引和排名的方法

首先通过下图看看通常网站的架构图:   典型的网站外链分布图 然后我们看看一个典型网站外链分布图:   爬虫抓取路径的优先级 下面要讲到一个被很多SEO们误解的重要概念.很久以前,搜索引擎的爬虫(机器人)大部分时间都会递归地抓取某个网站(通过你提交的网站首页网址,然后通过网页上发现的链接抓取这些链接所指向的网页,周而复始).但现在不是那么回事了,就像下面的图一样,搜索引擎的爬虫抓取时会有多个进入点,并且每个进入点都同样重要,然后再从这些进入点向外扩散,进行抓取.     搜索引擎爬虫抓取路径的优

了解robots.txt的用法 优化搜索引擎抓取和索引

通过给网站设置适当的robots.txt对Google和百度seo优化的作用是很明显的.WordPress博客网站也一样. 我们先看看robots.txt是什么,有什么作用? robots.txt是什么? 我们都知道txt后缀的文件是纯文本文档,robots是机器人的意思,所以顾名思义,robots.txt文件也就是给搜索引擎蜘蛛这个机器人看 的纯文本文件.robots.txt是搜索引擎公认遵循的一个规范文 档,它告诉Google.百度等搜索引擎哪些网页允许抓取.索引并在搜索结果中显示,哪些网页

尽量让搜索引擎抓取和索引更多内容

SEO们经常头疼的一个问题,没有收录.索引就无从谈排名.尤其对达到一定规模的网站来说,使网站充 分收录是个颇令人费神的SEO技术,当页面达到比如说几十万,无论网站架构怎么设计.多么优化,100%收录都是不可能的,只能尽量提高收录率. 但有时候怎么阻止搜索引擎收录也可能成为一个问题,最近越来越成为问题.需要阻止收录的情况如保密信息.复制内容.广告链接等.过去常用的阻止收录方法包括密码保护.把内容放在表格后面.使用JS/Ajax.使用Flash等.今天看到Google网管博客一篇文章,这些方法都不保