你如何看待支付宝转账信息被搜索引擎抓取?

  今天上微博看到一条很让人震惊的信息,不看还真不知道,一看吓了一大跳,支付宝转账信息既然被搜索引擎抓取了。有人会问到,这是怎么回事呢?

  支付宝转账信息爆光

  一开始笔者也不太相信,但看按照月光博客的方法在百度搜索" site:shenghuo.alipay.com ",看到的收录真让人吃惊,如下图吧。笔者特意找了一条收录的信息,由于这条收录的在首页,很容易就看到了,我也特意点击了百度快照看了一下,点击进去,里面的个人付款信息都能看到,按理说这是属于个人隐私信息,支付宝应该知道的,不能让蜘蛛来抓取的。一开始我以为是百度问题,然后在google也同样搜索了一下,发现比百度收录的还多,而且这种信息也能看到,有兴趣的朋友可以去搜索看一下。


 


  如何看待支付宝转账信息爆光这一问题?

  今天写这问题文章的朋友应该会很多,笔者也不多说,就想和大家聊聊你对这一问题的看法吧。首先搜索引擎收录支付宝转账信息,问题也在于谁身上?是支付宝公司,还是搜索引擎,支付宝转账页面进去是https协议网址,什么是https协议,我们知道,http是80端口访问,大部分网站都是采取http协议,而https:URL表明它使用了HTTP,但HTTPS存在不同于HTTP的默认端口及一个加密/身份验证层(在HTTP与TCP之间)。这个系统的最初研发由网景公司进行,提供了身份验证与加密通讯方法,现在它被广泛用于万维网上安全敏感的通讯,例如交易支付方面。百度百科是这样说的,照理说加密的搜索引擎不能抓取的,而且https的端口是443,搜索引擎怎么能知道这一信息?难道它不知道https协议么?还是蜘蛛只看robots文件,没有禁止的,我就可以抓取。表面上看是搜索引擎违规了,真的是这样子么?对于问题出在谁身上,我们先不去你追究。个人隐私信息不断被爆露,互联网安全问题越来越让人深思了,从360的安全隐私问题到现在支付宝转账信息也爆露了,这一切的问题,可以说都是互联网惹的祸。互联网给我们带来了方便,然后,每一件事物都有两面性,你看,个人信息被爆光,叫我们如何是好。

  你如何看待支付宝转账信息爆光这一问题呢?很多人都可能很害怕上网了,个人隐私信息不断被爆光,生活在这一时代的人真是很不安全。同时希望各公司遵守互联网游戏规则,多从用户身上考虑一下。

  文章原创于 笑话大全网站 www.52beautyyi.com ,尊重原创,转载请说明出处,谢谢!

时间: 2024-11-30 07:10:34

你如何看待支付宝转账信息被搜索引擎抓取?的相关文章

支付宝回应支付信息遭搜索引擎抓取:不含重要隐私

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 支付宝回应支付信息遭搜索引擎抓取:不含重要隐私(TechWeb配图) [TechWeb报道]3月28日消息,昨日有网友爆料称支付宝转账信息能够被谷歌抓取,大量用户隐私信息被泄露.对此支付宝做出官方回应,称付款结果页面一般用于支付双方展示支付结果,不含用户真实姓名.密码等重要信息. 据称,在谷歌中搜索"site:shenghuo.al

搜索引擎抓取算法

摘要: 搜索引擎看似简单的抓取-入库-查询工作,但其中各个环节暗含的算法却十分复杂.搜索引擎抓取页面工作靠蜘蛛(Spider)来完成,抓取动作很容易实现,但是抓取哪些页面,优先抓取哪些 搜索引擎看似简单的抓取-入库-查询工作,但其中各个环节暗含的算法却十分复杂.搜索引擎抓取页面工作靠蜘蛛(Spider)来完成,抓取动作很容易实现,但是抓取哪些页面,优先抓取哪些页面却需要算法来决定,下面介绍几个抓取算法: 1.宽度优先抓取策略: 我们都知道,大部分网站都是按照树状图来完成页面分布的,那么在一个树状

搜索引擎抓取网页原理学习笔记

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 做正规seo技术必会的搜索引擎抓取网页原理应该是很复杂的.可以写洋洋洒洒的长篇论文.这里就将我自己学习到的网页抓取原理记录一下.笔记应该不够完整只将重要过程做个介绍 首先抓取页面的工作需要分配个搜索引擎蜘蛛.也就是机器人了.每个搜索引擎都有大量的蜘蛛供其差遣.在如今这个信息更新极快得年代每个蜘蛛都不会闲着.搜索引擎给每只蜘蛛分配了大量网址.确

如何让搜索引擎抓取AJAX内容

越来越多的网站,开始采用"单页面结构"(Single-page application). 整个网站只有一张网页,采用Ajax技术,根据用户的输入,加载不同的内容. 这种做法的好处是用户体验好.节省流量,缺点是AJAX内容无法被搜索引擎抓取.举例来说,你有一个网站. http://example.com 用户通过井号结构的URL,看到不同的内容. http://example.com#1 http://example.com#2 http://example.com#3 但是,搜索引擎

如何让搜索引擎抓取AJAX内容解决方案_php实例

越来越多的网站,开始采用"单页面结构"(Single-page application). 整个网站只有一张网页,采用Ajax技术,根据用户的输入,加载不同的内容. 这种做法的好处是用户体验好.节省流量,缺点是AJAX内容无法被搜索引擎抓取.举例来说,你有一个网站. http://example.com 用户通过井号结构的URL,看到不同的内容. http://example.com#1 http://example.com#2 http://example.com#3 但是,搜索引擎

如何让搜索引擎抓取AJAX内容?

越来越多的网站,开始采用"单页面结构"(Single-page application). 整个网站只有一张网页,采用Ajax技术,根据用户的输入,加载不同的内容. 这种做法的好处是用户体验好.节省流量,缺点是AJAX内容无法被搜索引擎抓取.举例来说,你有一个网站. http://example.com 用户通过井号结构的URL,看到不同的内容. http://example.com#1 http://example.com#2 http://example.com#3 但是,搜索引擎

提高网页被搜索引擎抓取、索引和排名的方法

首先通过下图看看通常网站的架构图:   典型的网站外链分布图 然后我们看看一个典型网站外链分布图:   爬虫抓取路径的优先级 下面要讲到一个被很多SEO们误解的重要概念.很久以前,搜索引擎的爬虫(机器人)大部分时间都会递归地抓取某个网站(通过你提交的网站首页网址,然后通过网页上发现的链接抓取这些链接所指向的网页,周而复始).但现在不是那么回事了,就像下面的图一样,搜索引擎的爬虫抓取时会有多个进入点,并且每个进入点都同样重要,然后再从这些进入点向外扩散,进行抓取.     搜索引擎爬虫抓取路径的优

了解robots.txt的用法 优化搜索引擎抓取和索引

通过给网站设置适当的robots.txt对Google和百度seo优化的作用是很明显的.WordPress博客网站也一样. 我们先看看robots.txt是什么,有什么作用? robots.txt是什么? 我们都知道txt后缀的文件是纯文本文档,robots是机器人的意思,所以顾名思义,robots.txt文件也就是给搜索引擎蜘蛛这个机器人看 的纯文本文件.robots.txt是搜索引擎公认遵循的一个规范文 档,它告诉Google.百度等搜索引擎哪些网页允许抓取.索引并在搜索结果中显示,哪些网页

尽量让搜索引擎抓取和索引更多内容

SEO们经常头疼的一个问题,没有收录.索引就无从谈排名.尤其对达到一定规模的网站来说,使网站充 分收录是个颇令人费神的SEO技术,当页面达到比如说几十万,无论网站架构怎么设计.多么优化,100%收录都是不可能的,只能尽量提高收录率. 但有时候怎么阻止搜索引擎收录也可能成为一个问题,最近越来越成为问题.需要阻止收录的情况如保密信息.复制内容.广告链接等.过去常用的阻止收录方法包括密码保护.把内容放在表格后面.使用JS/Ajax.使用Flash等.今天看到Google网管博客一篇文章,这些方法都不保