GridFS详细分析

GridFS简介

GridFS是MongoDB中的一个内置功能,可以用于存放大量小文件。

http://www.mongodb.org/display/DOCS/GridFS

http://www.mongodb.org/display/DOCS/GridFS+Specification

GridFS使用

MongoDB提供了一个命令行工具mongofiles可以来处理GridFS,在bin目录下。

列出所有文件:

mongofiles list

上传一个文件:

mongofiles put xxx.txt

下载一个文件:

mongofiles get xxx.txt

查找文件:

mongofiles search xxx    //会查找所有文件名中包含“xxx”的文件

mongofiles list xxx //会查找所有文件名以“xxx”为前缀的文件

参数说明:

–d 指定数据库 ,默认是fs,Mongofiles list –d testGridfs

-u –p 指定用户名,密码

-h  指定主机

-port 指定主机端口

-c 指定集合名,默认是fs

-t 指定文件的MIME类型,默认会忽略

使用MongoVUE来查看,管理GridFS

MongoVUE地址:http://www.mongovue.com/

MongoVUE是个免费软件,但超过15天后功能受限。可以通过删除以下注册表项来解除限制:

[HKEY_CURRENT_USER\Software\Classes\CLSID\{B1159E65-821C3-21C5-CE21-34A484D54444}\4FF78130]

把这个项下的值全删掉就可以了。

用java驱动上传下载文件:

下载地址:https://github.com/mongodb/mongo-java-driver/downloads

官方的文档貌似不是最新的,不过通过查看api来使用也不困骓。

http://api.mongodb.org/java/2.7.2/

以下代码基于mongo-2.7.3.jar

import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStream;
import java.net.UnknownHostException;
import java.security.NoSuchAlgorithmException;

import com.mongodb.BasicDBObject;
import com.mongodb.DB;
import com.mongodb.DBCollection;
import com.mongodb.DBObject;
import com.mongodb.Mongo;
import com.mongodb.MongoException;
import com.mongodb.gridfs.GridFS;
import com.mongodb.gridfs.GridFSDBFile;
import com.mongodb.gridfs.GridFSInputFile;

public class Test {
	Mongo connection;
	DB db;
	DBCollection collection;
	GridFS myFS;

	String mongoDBHost = "127.0.0.1";
	int mongoDBPort = 27017;
	String dbName = "testGridfs";
	String collectionName = "fs";

	public static void main(String[] args) throws MongoException, IOException, NoSuchAlgorithmException {
		Test t = new Test();

		String fileName = "F:/CPU.txt";
		String name = "CPU.txt";

		//把文件保存到gridfs中,并以文件的md5值为id
		t.save(new FileInputStream(fileName), name);

		//据文件名从gridfs中读取到文件

		GridFSDBFile gridFSDBFile = t.getByFileName(name);
		if(gridFSDBFile != null){
			System.out.println("filename:" + gridFSDBFile.getFilename());
			System.out.println("md5:" + gridFSDBFile.getMD5());
			System.out.println("length:" + gridFSDBFile.getLength());
			System.out.println("uploadDate:" + gridFSDBFile.getUploadDate());

			System.out.println("--------------------------------------");
			gridFSDBFile.writeTo(System.out);
		}else{
			System.out.println("can not get file by name:" + name);
		}
	}

	public Test() throws UnknownHostException, MongoException, NoSuchAlgorithmException {
		_init();
	}

	public Test(String mongoDBHost, int mongoDBPort, String dbName,
			String collectionName) throws UnknownHostException, MongoException, NoSuchAlgorithmException {
		this.mongoDBHost = mongoDBHost;
		this.mongoDBPort = mongoDBPort;
		this.dbName = dbName;
		this.collectionName = collectionName;
		_init();
	}

	private void _init() throws UnknownHostException, MongoException, NoSuchAlgorithmException{
		connection = new Mongo(mongoDBHost, mongoDBPort);
		db = connection.getDB(dbName);
		collection = db.getCollection(collectionName);
		myFS = new GridFS(db);
	}

	/**
	 * 用给出的id,保存文件,透明处理已存在的情况
	 * id 可以是string,long,int,org.bson.types.ObjectId 类型
	 * @param in
	 * @param id
	 */
	public void save(InputStream in, Object id){
		DBObject query  = new BasicDBObject("_id", id);
		GridFSDBFile gridFSDBFile = myFS.findOne(query);

		if(gridFSDBFile != null)
			return;

		GridFSInputFile gridFSInputFile = myFS.createFile(in);
		gridFSInputFile.save();
		return;
	}

	/**
	 * 据id返回文件
	 * @param id
	 * @return
	 */
	public GridFSDBFile getById(Object id){
		DBObject query  = new BasicDBObject("_id", id);
		GridFSDBFile gridFSDBFile = myFS.findOne(query);
		return gridFSDBFile;
	}

	/**
	 * 据文件名返回文件,只返回第一个
	 * @param fileName
	 * @return
	 */
	public GridFSDBFile getByFileName(String fileName){
		DBObject query  = new BasicDBObject("filename", fileName);
		GridFSDBFile gridFSDBFile = myFS.findOne(query);
		return gridFSDBFile;
	}
}

nginx-gridfs模块的安装使用

项目地址:https://github.com/mdirolf/nginx-gridfs

通过nginx-gridfs,可以直接用http来访问GridFS中的文件。

1. 安装

安装各种依赖包:zlib,pcre,openssl

在ubuntu下可能是以下命令:

sudo apt-get install zlib1g-dev            //貌似sudo apt-get install zlib-dev 不能安装

sudo apt-get install libpcre3 libpcre3-dev

sudo apt-get install openssl libssl-dev

安装git(略)

用git下载nginx-gridfs的代码:

git clone git://github.com/mdirolf/nginx-gridfs.git

    cd nginx-gridfs

    git submodule init

    git submodule update

下载nginx:

wget http://nginx.org/download/nginx-1.0.12.zip

tar zxvf nginx-1.0.12.zip

cd nginx-1.0.12

 ./configure --add-module=<nginx-gridfs的路径>

make

sudo make install

如果编译出错,则在configure时加上--with-cc-opt=-Wno-error 参数。

2. 配置nginx

在server的配置中加上以下

   location /pics/ {

                gridfs pics

                field=filename

                type=string;

                mongo 127.0.0.1:27017;

        }

上面的配置表示:

数据库是pics,通过文件名filename来访问文件,filename的类型是string

目前只支持通过id和filename来访问文件。

启动nginx:/usr/local/nginx/sbin/nginx

用MongoVUE把一个图片001.jpg上传到pics数据库中。

打开:http://localhost/pics/001.jpg

如果成功,则可以看到显示图片了。

3. nginx-gridfs的不足

没有实现http的range support,也就是断点续传,分片下载的功能。

GridFS实现原理

GridFS在数据库中,默认使用fs.chunks和fs.files来存储文件。

其中fs.files集合存放文件的信息,fs.chunks存放文件数据。

一个fs.files集合中的一条记录内容如下,即一个file的信息如下:

{
"_id" : ObjectId("4f4608844f9b855c6c35e298"),   	//唯一id,可以是用户自定义的类型
"filename" : "CPU.txt", 	 //文件名
"length" : 778, 	 //文件长度
"chunkSize" : 262144, 	 //chunk的大小
"uploadDate" : ISODate("2012-02-23T09:36:04.593Z"), //上传时间
"md5" : "e2c789b036cfb3b848ae39a24e795ca6", 	 //文件的md5值
"contentType" : "text/plain" 	 //文件的MIME类型
"meta" : null	 //文件的其它信息,默认是没有”meta”这个key,用户可以自己定义为任意BSON对象
}

对应的fs.chunks中的chunk如下:

{
"_id" : ObjectId("4f4608844f9b855c6c35e299"), 	 //chunk的id
"files_id" : ObjectId("4f4608844f9b855c6c35e298"), 	//文件的id,对应fs.files中的对象,相当于fs.files集合的外键
"n" : 0, 	 //文件的第几个chunk块,如果文件大于chunksize的话,会被分割成多个chunk块
"data" : BinData(0,"QGV...")	 //文件的二进制数据,这里省略了具体内容
}

默认chunk的大小是256K。

public static final int DEFAULT_CHUNKSIZE = 256 * 1024;

所以在把文件存入到GridFS过程中,如果文件大于chunksize,则把文件分割成多个chunk,再把这些chunk保存到fs.chunks中,最后再把文件信息存入到fs.files中。

在读取文件的时候,先据查询的条件,在fs.files中找到一个合适的记录,得到“_id”的值,再据这个值到fs.chunks中查找所有“files_id”为“_id”的chunk,并按“n”排序,最后依次读取chunk中“data”对象的内容,还原成原来的文件。

自定义Gridfs的hash函数

尽管从理论上,无论用什么hash函数,都有可能出现hash值相同,但内容不相同的文件,但是对于GridFS默认使用的md5算法,目前已出现长度和md5值都相同但内容不一样的文件。

如果想要自已改用其它hash算法,可以从驱动入手。因为GridFS在MongoDB中实际也只是两个普通的集合,所以完全可以自已修改驱动,替换下hash算法即可。

目前java版的驱动比较简单,可以很容易修改实现。

但是要注意,这样不符合GridFS的规范了。

注意事项

1. GridFS不自动处理md5相同的文件,对于md5相同的文件,如果想在GridFS中只有一个存储,要用户自已处理。Md5值的计算由客户端完成。

2. 因为GridFS在上传文件过程中是先把文件数据保存到fs.chunks,最后再把文件信息保存到fs.files中,所以如果在上传文件过程中失败,有可能在fs.chunks中出现垃圾数据。这些垃圾数据可以定期清理掉。

时间: 2024-10-31 15:02:53

GridFS详细分析的相关文章

Liferay创建新用户页面中的随机文本验证详细分析

Liferay 6.1的创建新用户页面如图: 这个页面的代码在/html/portlet/login/create_account.jsp中: ... <portlet:actionURL var="createAccoutURL"> <portlet:param name="saveLastPath" value="0" /> <portlet:param name="struts_action"

详细分析使用AngularJS编程中提交表单的方式

这篇文章主要介绍了详细分析使用AngularJS提交表单的方式,AngularJS是非常热门的JavaScript库,文中展示了AngularJS在前端与后端的PHP进行交互的场景,需要的朋友可以参考下 在AngularJS出现之前,很多开发者就面对了表单提交这一问题.由于提交表单的方式繁杂而不同,很容易令人疯掉--然而现在看来,依然会让人疯掉. 今天,我们会看一下过去使用PHP方式提交的表单,现在如何将其转换为使用Angular提交.使用Angular来处理表单,对我而言,是一个"啊哈&quo

十种流行进程注入技术详细分析

本文讲的是十种流行进程注入技术详细分析, 前言 流程注入是一种恶意软件和无文件间谍攻击中使用的最为广泛的漏洞攻击技术,而且在攻击时还需要在另一个进程的地址空间内运行自定义代码.过程注入除了提高了攻击的隐蔽性之外,也实现了持久性攻击.尽管目前有许多流程注入技术,但在本文中,我只介绍十种在野外看到的能够运用另一个进程运行恶意代码的技术.在介绍的同时,我还会提供这些技术的屏幕截图,以便于逆向工程和恶意软件分析,协助针对这些常见技术进行的检测和防御. 一.经典的DLL注入 这种技术是用于将恶意软件注入另

一款勒索病毒的详细分析

原文出自看雪论坛:[原创]一款勒索病毒的详细分析-『软件逆向』-看雪安全论坛 0×01 程序信息 大小:2,132,992 字节 MD5:671ec2f2b246113f65a0afd1c53c5c3b 壳:UPX 0.89.6 - 1.02 / 1.05 - 2.90 编写语言:易语言 0×02 程序行为 开机自启 修改浏览器信息 禁用UAC 进程检测 加密文件 发送数据到指定邮箱 0×03 运行截图 0×04 脱壳去花指令 采用UPX加壳,通过ESP定律脱壳 脱壳后: 从入口特征判断为VC+

编程c语言-这个程序详细分析~~~求大神

问题描述 这个程序详细分析~~~求大神 看了半天弄不清 解决方案 这是一个函数递归调用的例题,首先n=5,调用age函数,此时n!=1,所以直接执行else语句,t=age(4)+2,(age(4)的值等于age(3)+2)n=4>1,第二次调用age函数,再次执行else语句,返回的是t=age(3)+2,(age(2)+2)以此类推,当第五次调用age函数时,n==1,所以第五次返回的是10,所以最终的结果是10+2+2+2+2=18. 解决方案二: 总共有4层递归,最深的一层递归时n=1,

powercat工具详细分析

本文讲的是powercat工具详细分析,这个工具出来两年了,但是好像很少人知道他.国外的大牛们用的比较多,国内的文章出现powercat关键字的寥寥无几,更别说有这款工具的详细用法了. 0x01  powercat简介 是NetCat 的Powershell 版本.作者的介绍也是这样写的,但是我觉得,powercat不管怎么样,也有比NetCat 强的一点,就是没有任何痕迹!来无影去无踪.关掉powershell 我们还是好朋友. 0x02 下载运行 直接克隆回本地: git clone htt

Linux内核OOM机制的详细分析(转)

Linux 内核 有个机制叫OOM killer(Out-Of-Memory killer),该机制会监控那些占用内存过大,尤其是瞬间很快消耗大量内存的进程,为了 防止内存耗尽而内核会把该进程杀掉.典型的情况是:某天一台机器突然ssh远程登录不了,但能ping通,说明不是网络的故障,原因是sshd进程被 OOM killer杀掉了(多次遇到这样的假死状况).重启机器后查看系统日志/var/log/messages会发现 Out of Memory: Kill process 1865(sshd)

详细分析页面停留时间和网站停留时间

下面我们来详细分析一下页面停留时间和网站停留时间,供大家参考.  一.页面停留时间与网站停留时间是如何计算出来的? 假设用户访问了网站的主页(Home).分析工具将这个访问者标记为一个Visit,接着这个访问者又浏览了另外两个页面(Page2和Page3),然后他离开了你的网站.如下图所示: 我们想要知道的是: Tp = 花费在一个页面上的时间 Ts = 花费在这网站上的总时间 假如这个用户从10:00开始访问网站: 对于Page2而言,访问时间是10:05-10:01,即4分钟. 接着访问者来

分享:详细分析真实的SEO案例都包括什么(下)

中介交易 SEO诊断 淘宝客 云主机 技术大厅 在上篇文章分享:详细分析真实的SEO案例都包括什么(上),分别谈到了网站的整体定位分析,网站优化目标分析和关键词分析组合,这三个方面是首先要做的,那么今天接着上文和大家谈谈剩下的几点,因为这是基于自己的一点经验总结,所以它并不是一个标准,如果大家有什么好的SEO案例策划方案,也可以和大家共享一下,大家共同提高. 第四.网站详细诊断 网站诊断是网站优化必须要做的准备工作,只有知道了网站有什么地方存在不足,才能对症下药,才能针对性地改进网站.一般的网站