斯诺登借网络蜘蛛自动窃取NSA服务器数据

《纽约时报》一份新报道称,“棱镜门”泄密者爱德华·斯诺登(Edward Snowden)利用一个“完全自动化”的工具,从美国">国家安全局(NSA)的服务器下载了至少20万分绝密文件。

据《纽约时报》报道,NSA一位高级官员表示,斯诺登任职期间,通过一个专为搜索、索引和网页拷贝而设计的“网络蜘蛛”软件,“从我们的系统中搜刮数据”。这位官员称,“我们认为,在一台机器中利用一个单独设置依次下载如此多数量的文件,是不可能的。”他表示,这个过程是“完全自动化的”。

报道称,斯诺登势必为搜索程序设置了参数,以此在NSA内部网络和美情报机关内部系统中获取文件和材料。该系统相当于美情报部门内部的“维基百科”,让其情报分析人员能够获取来自全球的信息。

关于网络蜘蛛,目前最出名的就是谷歌(微博)的网页抓取漫游器Googlebot。该爬虫系统会自动从数十亿网页上收集文档,下载内容,以此为谷歌搜索引擎建立可搜索的索引,让用户能够更快的获取搜索结果。虽然斯诺登所使用的网络蜘蛛工具并不如谷歌的先进,但该高级官员表示,斯诺登的网络蜘蛛工具与谷歌的大同小异。

若在NSA内部网络系统使用类似工具,便会引起NSA总部的注意。不过,美政府并未在斯诺登前往夏威夷工作处之前,未能及时地为那里的电脑安装一款最新型“防泄密”软件。

虽然斯诺登的行为遭到部分质疑,但是他似乎能够挡开美政府机构的进一步质询。《纽约时报》称,斯诺登接受质询时就自己的行为,作出了听上去十分合理的解释,即,作为一名系统管理人员,他有责任对网络系统进行日常维护,而这其中就包括复制电脑系统,并将信息转移至本地服务器。

棱镜门曝出后,斯诺登前往俄罗斯,目前仍受到俄政府的临时庇护。而《纽约时报》此次披露的消息,无疑又一次让那些美调查人员的脸上无光。

时间: 2024-08-13 17:24:18

斯诺登借网络蜘蛛自动窃取NSA服务器数据的相关文章

斯诺登借“网络爬虫”技术获取大量机密文件

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 新华网华盛顿2月9日电(记者孙浩 穆东)美国<纽约时报>9日刊文报道,正在调查"棱镜门"事件的美国情报官员透露,前防务承包商雇员爱德华·斯诺登只凭借比较简单的"网络爬虫"技术就获取了大量机密文件,由此曝光国家安全局对内安保存在一定漏洞. <纽约时报>援引了多名不愿公开身份情报官员

NSA最新项目:OpenC2,实现网络防御自动响应

美国国家安全局(简称NSA)带领一批网络安全技术专家与供应商投入一年多时间开发出一种开放式标准化计算机语言--OpenC2,旨在对网络防御任务进行指挥及操控. OpenC2概念 OpenC2的设计理念在于让网络防御技术中的各类不同元素以机器速度实现相互通信,无论其由具体由哪家厂商负责制造以及使用哪种编程语言. 根据OpenC2项目发起者.NSA官员布鲁尔所言,网络防御方"必须具备一套自动机器响应机制",从而在与攻击者的对抗当中取得优势.在本周二召开的Gartner安全风险管理峰会上,他

网络战前夜:NSA联手西点军校搞摸底考试

美国已经成为数字化战争新时代下网络攻击的首要目标,而军方正在为可能出现的各类挑战做好准备.近日,美西点军校学员与国安局(简称NSA)团队开展了网络战争模拟演习. 在这场无声的对抗中,士兵们最重要的补给物资就是--提神功能饮料. 尽管喝下了大量提神功能饮料,但二十多名来自美国西点军校的学员仍然表现出令人惊讶的冷静与沉着. 此次他们的任务是建立一台服务器,同时确保其在一周之内免受NSA网络攻击团队的入侵. 相信很多朋友和E安全小编一样,都受到<速度与激情8>等众多网络战争题材影视作品的影响.但在这

网络蜘蛛运行模式简介

网络蜘蛛进入一个网站,一般会访问一个特殊的文本文件Robots.txt,这个文件一般放在网站服务器的根目录下, 如:http://www.ithov.com/robots.txt.网站管理员可以通过robots.txt来定义哪些目录网络蜘蛛不能访 问,或者哪些目录对于某些特定的网络蜘蛛不能访问.例如有些网站的可执行文件目录和临时文件目录不希望被 搜索引擎搜索到,那么网站管理员就可以把这些目录定义为拒绝访问目录. Robots.txt语法很简单,例如如果对目录没有任何限 制,可以用以下两行来描述:

用“网络精确时钟”架设时间服务器

又到了月底考勤记录表张贴的日子,又有不少的同事开始为自己多次早退而"叹息".很多同事都反映是电脑上显示的时间不准确,才导致他们早退.面对这种情况,经理找到了果冻,他要果冻想个办法让每个人的电脑所显示的时间都成为标准时间,以免"早退"的再次发生. 要让办公室局域网内的每台电脑都能够自动对时,首要任务便是要建立一个局域网内的时钟服务器,以便大家有个一致的时间可以遵循.然后,必须保证时钟服务器和标准时间的同步.针对这些情况,果冻找到了"网络精确时钟".

用Java编程实现“网络蜘蛛”

简介 "网络蜘蛛"或者说"网络爬虫",是一种能访问网站并跟踪链接的程序,通过它,可快速地画出一个网站所包含的网页地图信息.本文主要讲述如何使用Java编程来构建一个"蜘蛛",我们会先以一个可复用的蜘蛛类包装一个基本的"蜘蛛",并在示例程序中演示如何创建一个特定的"蜘蛛"来扫描相关网站并找出死链接. Java语言在此非常适合构建一个"蜘蛛"程序,其内建了对HTTP协议的支持,通过它可以传输

Google让蜘蛛自动填表提交 以抓取更多网页

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 据国外媒体报道:美国搜索巨头谷歌公司最近开始在网页抓取蜘蛛中实施一项新技术:他们可以让蜘蛛自动填写某些网页中的表格,并且自动提交到服务器上,对反馈页面进行抓取,从而获取更多有关这个网站的详细信息. 北京时间4月12日消息,据国外媒体报道:美国搜索巨头谷歌公司最近开始在网页抓取蜘蛛中实施一项新技术:他们可以让蜘蛛自动填写某些网页中的表格,并且自

cookie是指web浏览器存储的少量数据,该数据会在每次请求一个相关的URL时自动传到服务器中(转)

基本概念:cookie是指web浏览器存储的少量数据,该数据会在每次请求一个相关的URL时自动传到服务器中. 以博客园为例,我们看看cookie有哪些属性: 1.Name:cookie的名称: 2.Value:cookie名称对应的值: 3.Domain:设置cookie作用域.默认是当前web服务器的主机名.设置该属性可使大型网站子域之间共享cookie,不过只能设置为当前服务器的域. 举个栗子:order.example.com域下的服务器想读取catalog/example.com域下设置

网站SEO常识:网络蜘蛛是什么?

网络蜘蛛即Web http://www.aliyun.com/zixun/aggregation/8313.html">Spider,是一个很形象的名字.把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛.网络蜘蛛是通过网页的链接地址来寻找网页,从 网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其 它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网 站所有的网页都抓取完为止.如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个