海量数据挖掘之中移动流量运营系统

---------------------------------------------------------------------------------------------------------------
[版权申明:本文系作者原创,转载请注明出处]
文章出处:http://blog.csdn.net/sdksdk0/article/details/51691862
作者:朱培   ID:sdksdk0

---------------------------------------------------------------------------------------------------------------

因为整个项目工程师非常庞大的,一方面由于整个开发流量非常繁琐,不可能通过一篇文章就可以说得清楚的,另一方面由于保密性,所以这里只分享其中的部分内容。首先会从整体架构等说起,通过本文的学习主要是进一步了解海量数据挖掘的框架流程,对数据采集流程、内容识别、知识库的建立以及行为轨迹增强有初步的了解,学会简单的url清洗以及能够开发出简单的分类MapReducer程序。当然,如果部分内容看不懂也没关系,毕竟这需要经验的积累,不要太急于求成,可以先查看我的其他文章!

一、项目背景介绍

1.1 项目背景

对于运营商来说,使用海量数据挖掘对客户移动互联网行为进行采集,分析,发现用户关注的内容,为开展营销提供号码支持。当然,也不局限于这些功能。例如一个用户在用手机看小说,那么肯定有一个url的网址啦,用户所有访问的网址,ip,时间戳,上下行流量,基站,网络模式,手机型号等一大串信息都会被记录下来并在运营商的的云端进行存储,这个数据量是非常非常大的。这个时候我们可以通过抓取到用户访问过的url和总流量,然后通过爬虫去分析用户浏览的这个网页是怎么样的一个网页,通过内容识别机制来找出这个网页的内容,例如一个用户在看的是新闻url,然后我们通过爬虫发现其访问的是新浪新闻,然后内容识别发现其经常访问关于娱乐新闻,明星八卦等,(基于流量和这类新闻的浏览次数来判读是否经常访问),那么这个时候我们就可以给其推送一些娱乐周边新闻等,只要用户点击去浏览了那么肯定会产生流量啊,那么运营商的营销的目的不就达成了么,哈哈哈!

该项目投产之后的收效为:

l用户响应率有三倍提升

•本次营销相关激励措施和前期开展的WAP PUSH营销相同;

•对比以往的群发响应率1%-3%,本次群发响应率效果明显,达到5.80%-10.21%,有近乎3倍的提升效果。

l访问用户活跃度高

•用户后有继续点击其他内容的行为,最高占比达到91.4%;

•产生二次点击行为的用户数的占比高,反映贴合用户需求的内容对用户的吸引力,用户粘性越高。

1.2 项目概况

在每个省单独一套系统,分为3个集群:数据采集集群(6-10个节点),行为轨迹增强处理集群(20-25节点),ETL、统计分析集群(35节点)

节点就是:PC服务器,放到机柜中,配置(4颗12核cpu,64G或128G内存,磁盘1T*8/12)

数据量,每天2T左右(10亿行以上),时间维度,地域维度。最长分析3个月的。每天增量不断增长。
项目组成员:
  研发团队:数据采集(3-4人),行为轨迹增强(10人左右),ETL(20人左右,需要写web程序)
  实施团队:部署环境,2-3个实施人员带上20多个开发人员
  运维团队:
  销售团队等

1.3 系统架构图

二、数据采集系统架构

既然前面说到了要抓取url的网址,那么我们如何来获得这些用户的数据呢!当然,普通人肯定是得不到运营商的数据啦,因为这些数据都是保密的,那么我要说的是运营商如何得到用户数据呢!

项目所处理的数据
硬件设备(网关,基站等)
其他系统(运营系统等)

业务日志:
HTTP日志/WAP日志/MMS日志/CONN日志/DNS日志

从移动运营商的核心网关中把需要的数据发送到ftp服务器上,然后我们这边就会提供ftp的客户端去采集ftp服务器的数据,然后处理之后过来进行分析。

三、内容识别模块

把url经过爬虫然后到识别系统,分析出网站名,主题,类别,(作者)等
将分类体系导入到数据库中,url json封装的内容信息。
大量的日志不断的产生,然后通过行为轨迹增强,通过一个mapreduce,
如果这个数据匹配到了,则将原始行+内容分析结果信息(从知识库来的数据)导出到增强日志。如果匹配不到的数据就输出到一个待爬清单中。


识别系统:自然语言处理SVM(实时识别),人工识别(人工一条条的去识别),模板识别(一个网页的内容的位置一般不会变,用xpath来定位到我们所需要查找的节点)

相信学过xml的应该都会使用xpath了,如果不会的话,可以查阅我这篇文章:http://blog.csdn.net/sdksdk0/article/details/51555090

在这个项目中庸xpath来做这个模板匹配:例如

对于一个网页的html页面来说,我们可以这样来匹配其标题,例如我们打开搜狐的html,我们可以看到他的这个网页标题是<title></title>的,所以我们对于这类网站就可以用xpath来定位这个title在哪里,然后去获取这title节点中内容

<site>
souhu.com
<site>
	<property>
		<name>movie_name</name>
		<xpath>/path/.../</xpath>
	</property>

</site>
</site>

当然了,使用xpath和xml去做这种模板匹配有一定的局限性,适用于一个结构非常清晰的网页,例如视频、小说、音乐等,对于那种奇奇怪怪的网友就不适用了。

所以总的来说,对于内容识别要采用多种方式去做,不要局限于一种,不同类型的网站最好有不同的解决方案。

我们使用自然语言处理来进行分析的时候还有问题就是,一个网页的内容太多了,svm分析有时候不能完全的识别到我们想要的内容,就像一条新闻,本来这个新闻的主标题才是中国网页的主要内容,而使用自然语言处理系统的话它可能会把新闻下面的广告读成了这个网页的主要内容了,所以这样的话就会有误差了。当然咯,自然语言分析还是很有用,那么为了更精确的识别照顾好网页的内容怎么办呢。好吧,那当然是最传统的人工读取了,由可爱的实习生们把这些网页一条条的浏览,然后记录这个网页的主要内容!(好吧,不要惊讶,移动就是这么干的)。然后读取大概10万个网页,这样的话就形成了一个规则库,这个就比自然语言处理和模板匹配的结果更加精确了。

四、知识库url挑选

两个知识库,一个规则库(人工分析的),还有一个实例库(自动分析系统)。
先把url进行规则分析,如果有则输出,没有没有则放到实例库,如果实例库也没有了,就放到待爬清单中。
先拿1T的样本数据,然后网址按流量汇总排序出来,总流量的前80%,总条数10万条。
因为只要挑选出来就可以了,不需要实时在运行的,所以只要一个job就可以了。

这里我们主要拿到一个url和总流量来进行分析和处理,其他更为复杂的情况这里就不分享了哦。

我们首先可以在eclipse总新建一个jav工程,导入各种hadoop/lib下面的jar包,或者直接新建一个mapRedecer工程也可以。

新建一个bean类:记得要继承一个Comparable接口。

package cn.tf.kpi;

public class FlowBean implements Comparable<FlowBean>{

	private String url;
	private long upflow;
	public String getUrl() {
		return url;
	}
	public void setUrl(String url) {
		this.url = url;
	}
	public long getUpflow() {
		return upflow;
	}
	public void setUpflow(long upflow) {
		this.upflow = upflow;
	}
	public FlowBean(String url, long upflow) {
		super();
		this.url = url;
		this.upflow = upflow;
	}
	public FlowBean() {
		super();
	}
	@Override
	public int compareTo(FlowBean o) {
		return (int) (o.getUpflow() - this.upflow) ;
	}
	@Override
	public String toString() {
		return "FlowBean [url=" + url + ", upflow=" + upflow + "]";
	}
}

然后写主方法:

其实这里和我之前写的那个用户流量分析系统有很多类似的地方。

package cn.tf.kpi;

import java.io.IOException;
import java.util.TreeSet;

import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import cn.tf.kpi.TopURL.TopURLMapper.TopURlReducer;

public class TopURL {

	public static class TopURLMapper extends
			Mapper<LongWritable, Text, Text, LongWritable> {

		private Text k = new Text();
		private LongWritable v = new LongWritable();

		@Override
		protected void map(LongWritable key, Text value, Context context)
				throws IOException, InterruptedException {

			String line = value.toString();
			String[] fields = StringUtils.split(line, "\t");
			try {
				String url = fields[26];

				long upFlow = Long.parseLong(fields[30]);

				k.set(url);
				v.set(upFlow);

				context.write(k, v);
			} catch (Exception e) {
				e.printStackTrace();
			}

		}

		public static class TopURlReducer extends
				Reducer<Text, LongWritable, Text, LongWritable> {

			private Text k = new Text();
			private LongWritable v = new LongWritable();

			TreeSet<FlowBean> urls = new TreeSet<FlowBean>();

			//全局流量和
			long globalFlowSum  =0;

			@Override
			protected void reduce(Text key, Iterable<LongWritable> values,
					Context context) throws IOException, InterruptedException {

				long count = 0;
				for (LongWritable v : values) {
					count += v.get();
				}

				globalFlowSum +=count;
				FlowBean bean = new FlowBean(key.toString(), count);
				urls.add(bean);
			}

			@Override
			protected void cleanup(Context context) throws IOException, InterruptedException {

				long tempSum=0;
				for(FlowBean bean:urls){
					//取前80%的
					if(tempSum/globalFlowSum<0.8){
					k.set(bean.getUrl());
					v.set(bean.getUpflow());
					context.write(k,v);

					tempSum+=bean.getUpflow();
					}else{
						return;
					}
				}
			}
		}
	}

	public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
		Configuration conf = new Configuration();
		Job job = Job.getInstance();

		job.setJarByClass(TopURL.class);

		// 指定本job使用的mapper类
		job.setMapperClass(TopURLMapper.class);
		// 指定本job使用的reducer类
		job.setReducerClass(TopURlReducer.class);

		// 指定mapper输出的kv的数据类型
		job.setMapOutputKeyClass(Text.class);
		job.setMapOutputValueClass(LongWritable.class);

		// 指定reducer输出的kv数据类型
		job.setOutputKeyClass(Text.class);
		job.setOutputValueClass(LongWritable.class);

		// 指定本job要处理的文件所在的路径
		FileInputFormat.setInputPaths(job, new Path(args[0]));
		// 指定本job输出的结果文件放在哪个路径
		FileOutputFormat.setOutputPath(job, new Path(args[1]));

		// 将本job向hadoop集群提交执行
		boolean res = job.waitForCompletion(true);

		System.exit(res ? 0 : 1);

	}

}

然后把这个工程打成一个jar包,命名为top.jar。存放到你指定的一个位置就可以了,我存放的位置是在/home/admin1/hadoop/lx/top.jar

现在启动hadoop集群服务,
把采集到的数据上传到hdfs的/topflow/data目录下,下载地址在文末贴出。(源数据下载地址:http://download.csdn.net/detail/sdksdk0/9551559)。把这个log.1文件上传你的hdfs目录中,这个log.1主要是几十万条采集到的用户流量的数据。

bin/hadoop fs -mkdir -p /topflow/data
bin/hadoop fs -put ../lx/log.1  /topflow/data

把jar包放到hadoop中执行:

bin/hadoop jar ../lx/top.jar  cn.tf.kpi.TopURL  /topflow/data   /topflow/output  

执行之后会见过系统的处理就可以选出url了。

内容如下:就是一个url网址+总流量大小,并且按照降序排列,所以我们只要拿到这个数据源的总流量最大的前80%的用户数据就可以了,然后就可以进行下一步的操作了。编译好的这个文件会存放在你的hdfs目录中,去查看一下就可以了。

然后你需要先准备一个mysql数据库,用于存放清洗好的数据,也就是我们把刚才得到的数据,是存放在hdfs的/topflow/output目录下的那个文件,把这个文件存到mysql数据库中,作为一个知识库。

在mysql数据中新建一个test数据库,然后建一个名字叫rule的表:

create database test;
use test;
create table rule(
  url  varchar(1024),
  info varchar(20) default 'complited'
)

然后需要导入数据,这里我直接使用sqoop来把hdfs中的数据导入到mysql中去,先去下载一个sqoop,

sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具
----实质就是将导入导出命令转换成mapreduce程序来实现。sqoop安装:安装在一台节点上就可以了。

首先下载好sqoop之后解压进入conf目录下,配置hadoop的路径,然后把mysql的驱动jar包复制一份放到sqoop的lib目录中。

在sqoop的conf目录下,修改sqoop-env.sh

export HADOOP_COMMON_HOME=/home/admin1/hadoop/hadoop-2.5.2
export HADOOP_MAPRED_HOME=/home/admin1/hadoop/hadoop-2.5.2

然后启动:进入sqoop的目录下,运行下面这个程序

bin/sqoop export --connect jdbc:mysql://ubuntu2:3306/test --username hive --password  a \
--table rule \
--export-dir /topflow/output \
--columns url \
--input-fields-terminated-by '\t'

然后就会把数据全部存入到mysql中,经过清洗之后,这里大概是6070条数据,在实际生产中的数据量可不仅仅只有这么一点点。

select *from rule;查看这个表里面的内容。

到这里,我们这个url知识库就建立好了,接下来就可以愉快的进行后续操作了。

五、用户行为轨迹增强

用户行为增强就是把原始的数据源来和这个知识库做匹配,如果有则把原来的数据+分析后的数据作为一个增强的模块,如果没有在这个知识库中匹配到,则放到待爬数据中。接下来演示的就是把原始数据(也就是前面提到的log.1)的数据与我们刚才存放到mysql中的六千多条数据进行匹配,若有,则输出到增强日至,若无则存放到待爬数据。

这个部分的内容其实是比较简单的,就是流程比较复杂一点。接下来继续在那个eclipse中新建3个类。

先把mysql的驱动包导入我们新建的这个工程,并build path一下。

这里写一个连接数据库的泪,因为我们要和数据库中的知识库做对比嘛,这是一个基础的jdbc连接类,这种很简单的我相信大街上随便一个人都会写的哈。这里就不再重复啰嗦啦!

package cn.tf.kpi;

import java.sql.Connection;

import java.sql.DriverManager;

import java.sql.ResultSet;

import java.sql.Statement;

import java.util.HashMap;

public class DBLoader {

	public static void dbLoader(HashMap<String, String> ruleMap) {

		Connection conn = null;

		Statement st = null;

		ResultSet res = null;

		try {

			Class.forName("com.mysql.jdbc.Driver");

			conn = DriverManager.getConnection("jdbc:mysql://ubuntu2:3306/test", "hive", "a");

			st = conn.createStatement();

			res = st.executeQuery("select url,info from rule");

			while (res.next()) {

				ruleMap.put(res.getString(1), res.getString(2));

			}

		} catch (Exception e) {

			e.printStackTrace();

		} finally {

			try{

				if(res!=null){

					res.close();

				}

				if(st!=null){

					st.close();

				}

				if(conn!=null){

					conn.close();

				}
			}catch(Exception e){

				e.printStackTrace();

			}

		}

	}

	public static void main(String[] args) {

		DBLoader db = new DBLoader();

		HashMap<String, String> map = new HashMap<String,String>();

		db.dbLoader(map);

		System.out.println(map.size());

	}

}

接下来就是一个增强日志类:

package cn.tf.kpi;

import java.io.IOException;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.RecordWriter;

import org.apache.hadoop.mapreduce.TaskAttemptContext;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class LogEnhanceOutputFormat extends FileOutputFormat<Text, NullWritable>{

	@Override

	public RecordWriter<Text, NullWritable> getRecordWriter(TaskAttemptContext context) throws IOException, InterruptedException {

		FileSystem	fs = FileSystem.get(context.getConfiguration());

		FSDataOutputStream tocrawlOut = fs.create(new Path("hdfs://ubuntu2:9000/topflow/tocrawl/url.list"));

		FSDataOutputStream enhancedOut = fs.create(new Path("hdfs://ubuntu2:9000/topflow/enhanced/enhanced.log"));

		return new LogEnhanceRecordWriter(tocrawlOut,enhancedOut);

	}

	public static class LogEnhanceRecordWriter extends RecordWriter<Text, NullWritable>{

		private FSDataOutputStream tocrawlOut;

		private FSDataOutputStream enhancedOut;

		public LogEnhanceRecordWriter(FSDataOutputStream tocrawlOut, FSDataOutputStream enhancedOut) {

			this.tocrawlOut = tocrawlOut;

			this.enhancedOut = enhancedOut;

		}

		@Override

		public void write(Text key, NullWritable value) throws IOException, InterruptedException {

			if(key.toString().contains("tocrawl")){

				//写入待爬清单目录(hdfs://)

				tocrawlOut.write(key.toString().getBytes());

			}else{

				//写入增强日志目录(hdfs://)

				enhancedOut.write(key.toString().getBytes());		

			}
		}

		@Override

		public void close(TaskAttemptContext context) throws IOException, InterruptedException {

			IOUtils.closeStream(enhancedOut);

			IOUtils.closeStream(tocrawlOut);

		}	

	}

}

最后把最重要的一个类写完就可以了;这里只要写一个map就可以了

package cn.tf.kpi;

import java.io.IOException;

import java.util.HashMap;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.Mapper;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class LogEnhance {

	public static class LogEnhanceMapper extends Mapper<LongWritable, Text, Text, NullWritable> {

		private HashMap<String, String> contentMap = new HashMap<String, String>();

		@Override

		protected void setup(Context context) throws IOException, InterruptedException {

			// 加载整个内容识别知识库到内存中

			DBLoader.dbLoader(contentMap);

		}

		@Override

		protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

			String line = value.toString();

			String[] fields = StringUtils.split(line, "\t");

			try {

				// 抽取url字段,去匹配规则库获取url页面的内容识别信息
				String url = fields[26];

				String contentResult = contentMap.get(url);

				String result = null;

				// 如果知识库中没有这条url的内容识别信息,就只输出url字段到待爬清单

				if (StringUtils.isBlank(contentResult)) {

					result = url + "\t" + "tocrawl" + "\n";

				} else {

					// 在原始日志内容后面追加内容识别结果信息作为增强之后的输出

					result = line + "\t" + contentResult +"\n";

				}

				context.write(new Text(result), NullWritable.get());

			} catch (Exception e) {

				context.getCounter("malformed", "line").increment(1);

			}

		}

	}

	public static void main(String[] args) throws Exception {

		Configuration conf = new Configuration();

		Job job = Job.getInstance();

		job.setJarByClass(LogEnhance.class);

		// 指定本job使用的mapper类

		job.setMapperClass(LogEnhanceMapper.class);

		// 指定mapper输出的kv的数据类型

		job.setMapOutputKeyClass(Text.class);

		job.setMapOutputValueClass(NullWritable.class);

		// 指定reducer输出的kv数据类型

		job.setOutputKeyClass(Text.class);

		job.setOutputValueClass(NullWritable.class);

		// 指定采用自定义的outputformat

		job.setOutputFormatClass(LogEnhanceOutputFormat.class);

		// 指定本job要处理的文件所在的路径

		FileInputFormat.setInputPaths(job, new Path(args[0]));

		// 虽然自定义outputformat中已有输出目录,但是这里还是要设置一个目录用来输出_SUCCESS文件

		FileOutputFormat.setOutputPath(job, new Path(args[1]));

		// 将本job向hadoop集群提交执行

		boolean res = job.waitForCompletion(true);

		System.exit(res ? 0 : 1);

	}

}

写完之后发现这三个类内容好简单,有木有!

继续把这个工程达成jar包,命名为top1.jar,然后放到hadoop下面去运行:

bin/hadoop jar top.jar  cn.tf.kpi.LogEnhance  /topflow/data  /topflow/output1

然后去查看一个数据就可以了。

也可以到浏览器中查看:

到这里,就在于分享完毕了,按照我分享的这个流量一步步做,我估计要一两天的时间才可以完全做完这个部分!其实总的来说就是过程非常繁琐,不过也正符合我们的实际工作,要知道,我们实际工作中,远超乎这些繁琐流程,中间还会报各种奇奇怪怪的错,有非常多的细节要处理,如果没有耐心,估计都会疯掉,哈哈!

欢迎关注,欢迎在评论区留言!

数据源下载地址:http://download.csdn.net/detail/sdksdk0/9551559

时间: 2024-07-30 14:21:10

海量数据挖掘之中移动流量运营系统的相关文章

解密:天猫双十一1682亿背后的“霸下-七层流量清洗”系统

上古神话中,龙生九子,其六为赑屃(bi xi),又名霸下,力大无穷,喜负重.在阿里安全也有这么一套技术框架以此命名. 上古神兽--霸下 名如其意,霸下的责任是支撑阿里安全产品的底层技术框架,它面向的用户是安全产品,给安全产品提供所需要的一切技术元素,诸如接入.数据传输.配置下发.策略执行.在线近线计算.存储.检索.通过拼接组合这些安全产品必备的元素,就能非常快速地构建出一个全新业务场景的产品,而不用再从零开始设计.探路.踩坑.让安全产品,在与外部的黑客.黑灰产斗争中做到迅捷快变. 这套强大的技术

我们该去相信哪个流量统计系统

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 面包网上线三个月,一直风波不断,从来就没有正常过,对于这个电影网,我付出了很多的精力,但却没有得到多少成果,真的应了一句话,用心未必就能得到好的结果.反而是一些不怎么用心的网站,排名都在第一页,而且很稳定.自从面包网上线那一天开始,网站的收录就不正常,上线半个月才被收录,收录后也很不稳定.网站使用过51啦统计,现在使用的是百度统计,看着每个流

数据运营系统实现方案浅析

摘要:本文的整理自2017云栖大会-成都峰会上阿里云专家纪应忠的分享讲义,讲义主要围绕数据运营系统的核心应用场景实现方案进行简单分析.提出数据化运营的行业背景,流量为王时代终结,数据化运营对业务发展变得日益重要.介绍阿里云数据运营解决方案,通过阿里云大数据工具,搭建一站式数据运营支撑平台.最后讲解了数据化运营的典型应用场景和分析案例. 在2017云栖大会-成都峰会上,阿里云专家纪应忠做了数据运营系统实施方案的浅析.流量为王时代终结,数据化运营对业务发展变得日益重要,运营从粗放精细化,高效.合理

PHP学习笔记:php网络流量统计系统

说明:代码来源<PHP和MySQL Web应用开发>一书,还有就是代码有些是经过修改的,经过我的测验全部都可以用.   这里面ip地址显示的正常的,我电脑是支持 ipv6 的.       本示例的数据库脚本 ~~~ 先执行 set names gbk;   (因为脚本中包含中文)再执行语句: source d:\test\Vote.sql;   CREATE DATABASE IF NOT EXISTS FluxStat COLLATE 'gb2312_chinese_ci'; USE Fl

【阿里聚安全·安全周刊】双十一背后的“霸下-七层流量清洗”系统| 大疆 VS “白帽子”,到底谁威胁了谁?

关键词:霸下-七层流量清洗系统丨大疆 VS "白帽子"丨抢购软件 "第一案"丨企业安全建设丨Aadhaar 数据泄漏丨朝鲜APT组织Lazarus丨31款违规APP|Terdot银行木马 本周资讯top3 [技术揭秘]天猫双十一1682亿背后的"霸下-七层流量清洗"系统 上古神话中,龙生九子,其六为赑屃(bi xi),又名霸下,力大无穷,喜负重.在阿里安全也有这么一套技术框架以此命名. 霸下的责任是支撑阿里安全产品的底层技术框架,它面向的用户是安

主流网站流量统计系统特色功能对比分析

Yahoo统计 为了抗衡Google,Yahoo也在今年推出了自己的http://www.aliyun.com/zixun/aggregation/10341.html">统计分析系统,雅虎统计也是一套免费的网站流量统计分析系统.致力于为所有个人站长.个人博主.所有网站管理者.第三方统计等用户提供网站流量监控.统计.分析等专业服务.相比Google Analytics来说,雅虎统计比较轻量级,但是抓住了站长最关心的一些数据,界面也比较简单,很符合站长需要. 网址:http://tongji

途牛研发团队:基于EAV模型搭建准自动化运营系统架构

本文将介绍如何基于 EAV 模型,来构造一个准自动化的运营系统,服务运营研发部的相关工作.     我们的痛点  运营研发部对接三端(PC.M.APP)后台工作,劳心劳力.   头疼的稀疏表( 稀疏表通常会有很多列,但是每一行有值的列又比较少.)+头疼的各种表. 持续的迭(xu)代(qiu)升(bian)级(geng)(每一次功能升级,都需要变更表结构). 基础数据的维护代码坑好多,打个标签加个属性,都好怕. Code Monkey,熟悉的表+熟悉的套路(设计表单.设计字段.CRUD-)Boom

大数据实战:用户流量分析系统

--------------------------------------------------------------------------------------------------------------- [版权申明:本文系作者原创,转载请注明出处] 文章出处:http://blog.csdn.net/sdksdk0/article/details/51628874 作者:朱培 --------------------------------------------------

蜻蜓组织正在攻击多国能源行业 能控制运营系统计算机且更为隐蔽

最近针对能源行业的攻击表明,"蜻蜓"组织能够访问控制运营系统的计算机.人们对于美国能源行业面临网络攻击时的脆弱性一直存在担忧,本周,这种担忧再度升温,原因是安全公司赛门铁克警告称,威胁源起方已有能力访问并破坏关键控制系统. 蜻蜓组织正在攻击多国能源行业 在一份报告中 ,赛门铁克称已有证据表明,"蜻蜓"组织针对美国.土耳其和瑞士等国的能源行业发动了一系列的网络攻击."蜻蜓"又被称为俄罗斯的"活力熊",最早于2011年开始活动,与