以公布机密资讯着称的维基解密 (Wikileaks)网站25日公布《阿富汗战争日记》,内容是9万2000份有关美军在阿富汗战场的秘密作战纪录,包括未曾公开的阿富汗
平民遭屠杀、 以及美军对阿富汗武装组织塔利班据点的秘密行动等。美国媒体
认为,这是美国军事史上最大的军事情报泄密事件之一。Wikileaks在
数周前把相关文件提供给美国纽约时报、英国卫报和德国明镜周刊检阅,三家媒体25日同时在网站
刊登相关报导。纽约时报说,泄密文件显示,巴勒斯坦情报首长曾密会塔利班分子。卫报则指出,文件显示,许多阿富汗平民死在国际部队和塔利班手中,揭露阿富汗战争失败的情况。白宫谴责危害国家安全白宫立刻谴责文件泄露会危害美国国家安全,白宫国家安全顾问琼斯说:「美国政府强烈谴责在网上公布机密文件的组织或个人。这些信息可能危害国家安全,让美方及盟友人员遭遇危险。」Wikileaks网站公布的文件主要是2004年1月至
2009年12月间驻阿美军及情报人员撰写的报告,描述美军参与的军事行动,也包含各种情报、美方人员和各方政治人物会面的细节等。Wikileaks表示,由于消息来源要求尽量减少伤害,有1万5000份文件并未公布。「美怀疑巴基斯坦暗助塔利班」根据文件揭露的信息,美国官员怀疑巴基斯坦情报部门多年来一直在对塔利班等阿富汗武装组织提供指导;塔利班取得地对空热跟踪导弹;美军特种部队成立了一支特别部队,专门暗杀或追捕塔利班目标。揭密的Wikileaks网站於2006年12月在网络出现,目的在提供告密者公布机密文件的管道,揭露政府和企业贪腐秘密,据说手头握有上百万份机密资料。该网站曾公布军
2007年美军直升机在伊拉克攻击行动中杀害12名平民的画面、美国关塔那摩湾有关囚犯规定的细节等。军方证实泄密文件为真的Wikileaks的作法引起两极反应,有些人视之为未来调查新闻学,有些人则认为该网站是安全风险。Wikileaks站长艾山吉在今年3月公布美国情报单位的文件显示「Wikileaks 是对美国陆军的威胁」,美国政府后来证实文件为真。51CTO编辑点评:这些机构不使用DLP之类的数据防泄漏技术么?连实力世界第一的美军泄密如此严重,作为普通企业的泄密状况该啥样了。数据丢失防护DLP何以成为安全焦点?这篇文章给了我们不错的启示。
9万条美军在阿富汗机密被Wikileaks公开
时间: 2024-11-13 08:36:24
9万条美军在阿富汗机密被Wikileaks公开的相关文章
Js表格万条数据瞬间加载实现代码
一条数据创建一行,如果数量大的时候,一次性要加载完数据的话,浏览器就会卡上半天,下面有个不错的方法,大家可以参考下 Js表格,万条数据瞬间加载 在Ajax动态加载数据的实际应用中,大家都习惯了一种思维方式:一条数据创建一行. 于是如果数量大的时候,一次性要加载完数据的话,浏览器就会卡上半天 受Flex的DataGrid控件的启发,在Flex的DataGrid控件中,展示数据的方法并不是有多少条数据就创建多少行,它最多只创建你在界面上所看到的十几二十行(假设为n行),如果数据多的话
有一个几万条的文本文档信息在导入MySql数据库时,总是出现错误,该如何解决?
问题描述 有一个几万条的文本文档信息在导入MySql数据库时,总是出现错误,该如何解决? 有一个几万条的文本文档信息在导入MySql数据库时,总是出现错误,该如何解决? 解决方案 具体看错误类型,可能某行数据格式等不规范. 解决方案二: 把错误信息发上来,或者通过二分法拆分成多个文件来分批导入. 解决方案三: 几万条数据不是很多,这要根据错误也解决.
12万条“角落需求”诞生出的“圆形艺术”
"地中海式装修的客厅温馨.洁净,方形柜机一放不仅破坏原有风格,同时"压缩"了室内空间"."每次大扫除都要移动这笨重的柜机,很费事".在互联网普及到人们生活之前,上述不满只能在亲友中传播,现在却大规模的爆发在网络平台上,大数据时代到来.而海尔在纷杂的海量数据中找到了创新的灵感.通过数据分析,海尔发现用户对室内空间合理利用.家电如何摆放更省空间愈加关注.其中,空调造成的空间浪费以及带来卫生死角成为用户"抱怨"的矛盾集中点.在全球知
30万条数据快速检索的T
数据库: 30万条,有ID列但无主键,在要搜索的"分类"字段上建有非聚集索引 过程T-SQL: /* 用户自定义函数:执行时间在1150-1200毫秒左右 CREATE FUNCTION [dbo].[gethl] (@types nvarchar(4)) RETURNS table AS return select 书名 from 图书三十万条 Where 分类 Like '%'+@types+'%' 存储过程: CREATE PROCEDURE [dbo].[getfl](@typ
mssql 30万条数据 搜索文本字段的各种方式对比
数据库: 30万条,有ID列但无主键,在要搜索的"分类"字段上建有非聚集索引 过程T-SQL: 复制代码 代码如下: /* 用户自定义函数:执行时间在1150-1200毫秒左右 CREATE FUNCTION [dbo].[gethl] (@types nvarchar(4)) RETURNS table AS return select 书名 from 图书三十万条 Where 分类 Like '%'+@types+'%' 存储过程: CREATE PROCEDURE [dbo].[
sql server 2000中循环插入100万条数据
server|插入|数据|循环 出处:∮明天去要饭's Blog 前段时间在测试100万条以上数据时的分页速度,需要往数据库中插入100万条记录,那个时候插入记录我是用C#写的,后来发现,其实用SQL自已也可以实现的,而且更简单哦!以下是我写的一个实例,很简单,大家应该能看懂的. declare @i int --变义变量@i set @i = 1 --初始化@i为1 while @i < 100 --如果@i小于100,这里改成10
mysql 查询慢-mysql 近5万条数据的表 使用联表查询 出现服务器CPU占用过多
问题描述 mysql 近5万条数据的表 使用联表查询 出现服务器CPU占用过多 mysql 近5万条数据的表 使用联表查询 出现服务器CPU占用过多,贴大神代码求优化指点!!!!!有两张表分别为:lu_yccdd 和 lu_taizhang使用的联表查询代码:SELECT distinct(t.sc_time) sc_timecount(distinct(y.id)) totalcount(distinct(t.cdd_id)) tjjg(count(distinct(y.id))-count(
oracle数据库中怎么一次性插入10万条数据
问题描述 oracle数据库中怎么一次性插入10万条数据 oracle数据库中怎么一次性插入10万条数据?急用!!!1 解决方案 最快的方法是用imp进行导入 或者用sql执行也可以(insert into )
mysql(表:InnoDB,无索引),批量插入50万条记录后,越来越慢。
问题描述 mysql(表:InnoDB,无索引),批量插入50万条记录后,越来越慢. 插入10000条,已用时0秒 插入20000条,已用时2秒 插入30000条,已用时3秒 插入40000条,已用时3秒 插入50000条,已用时4秒 插入60000条,已用时5秒 插入70000条,已用时6秒 插入80000条,已用时7秒 插入90000条,已用时8秒 插入100000条,已用时9秒 插入110000条,已用时11秒 插入120000条,已用时12秒 插入130000条,已用时13秒 插入140