php有规律大文件的读取与写入

   这几天在做一个东西.研究PHP读取行数较多的文件(大概上百万行).考虑到效率问题.进行了简单的研究.总结如下

  第一条.file()函数的效率问题.

  file()函数的效率很底下 如果是有规律的文件.比如每行一条相应数据.那么尽量不要是用file()函数

  可以使用file_get_contents()然后用explode切割.这样效率会快三分之一

  举个例子:

  文件样式如下:

  11111n

  22222n

  33333n

  44444n

  55555n

  .....n

  nnnnnnnnnnnn

  如果用file($file)读入的话.耗时很长.

  可以用如下方法explode("n",file_get_contents($file));效率会快很多.

  第二条,数组的遍历方式.

  数据已经被读入数组了.下面就是遍历了.

  我所需要的是确定数组中有无一个值的存在,比如说44444是否在数组中.首先想到的是in_array()

  不过实验了下发现效率很低下.于是参考别人的代码想到一个办法.把数组翻转过来.变成所有值都为1.原来的值变成了索引.那么只要我在if里写($arr[索引]==1)去判断.果然效率高出很多.

  在数组的遍历过程中.如果数组个头非常大,并且数组中的数据并不是全能用到的话,最好把用来遍历的数组抽出来.这样会提高很多效率.

  第三条,数组的存储.

  把计算过后的数据保存起来.存在一个文件中.考虑了三种方法.一种是直接写成php文件.一种是serialize,一种是json串.

  第一种方式

  直接写入文件保存成PHP

  需要的时候直接require进来.

  第二种方式.把变量serialize然后file_put_contents()进入文件.使用的时候unserialize就ok.

  第三种方式和第二种类似.只不过写成了json串.

  经过测试.发现第二种效率最高.第三种其次.和第二种效率不相上下.第一种最慢.和我预想的差距很大.真是大跌眼镜.

时间: 2024-10-28 21:45:51

php有规律大文件的读取与写入的相关文章

php笔记之:有规律大文件的读取与写入的分析_php实例

这几天在做一个东西.研究PHP读取行数较多的文件(大概上百万行).考虑到效率问题.进行了简单的研究.总结如下 第一条.file()函数的效率问题. file()函数的效率很底下 如果是有规律的文件.比如每行一条相应数据.那么尽量不要是用file()函数 可以使用file_get_contents()然后用explode切割.这样效率会快三分之一 举个例子: 文件样式如下: 11111\n 22222\n 33333\n 44444\n 55555\n .....\n nnnnnnnnnnn\n

php对大文件进行读取操作的实现代码_php技巧

在php中,对于文件的读取时,最快捷的方式莫过于使用一些诸如file.file_get_contents之类的函数,简简单单的几行代码就能很漂亮的完成我们所需要的功能.但当所操作的文件是一个比较大的文件时,这些函数可能就显的力不从心, 下面将从一个需求入手来说明对于读取大文件时,常用的操作方法. 需求 有一个800M的日志文件,大约有500多万行, 用php返回最后几行的内容. 实现方法 1. 直接采用file函数来操作 注:由于 file函数是一次性将所有内容读入内存,而php为了防止一些写的

如何从文件中读取数据写入数组(急!!!谢谢各位)

问题描述 一个*text文件中有一些数字,整齐地分为3列n行,列中间用空格隔开.如何读取这个文件并把每一列每一行的数字存入数组.谢谢各位了!! 解决方案 解决方案二:string[]lines=File.ReadAllLines("");List<int[]>ls=newList<int[]>();foreach(stringlineinlines){int[]numbers=line.Split(newchar['']);ls.Add(numbers);}大概

PHP快速按行读取CSV大文件的封装类分享

 这篇文章主要介绍了一个PHP快速按行读取CSV大文件的封装类,这个类同时也适用于其它体积较大的文本文件,需要的朋友可以参考下 CSV大文件的读取已经在前面讲述过了(PHP按行读取.处理较大CSV文件的代码实例),但是如何快速完整的操作大文件仍然还存在一些问题.   1.如何快速获取CSV大文件的总行数?   办法一:直接获取文件内容,使用换行符进行拆分得出总行数,这种办法对小文件可行,处理大文件时不可行: 办法二:使用fgets一行一行遍历,得出总行数,这种办法比办法一好一些,但大文件仍有超时

php使用file函数、fseek函数读取大文件效率对比分析_php技巧

php读取大文件可以使用file函数和fseek函数,但是二者之间效率可能存在差异,本文章向大家介绍php file函数与fseek函数实现大文件读取效率对比分析,需要的朋友可以参考一下. 1. 直接采用file函数来操作 由于 file函数是一次性将所有内容读入内存,而PHP为了防止一些写的比较糟糕的程序占用太多的内存而导致系统内存不足,使服务器出现宕机,所以默认情况下限制只能最大使用内存16M,这是通过php.ini里的 memory_limit = 16M 来进行设置,这个值如果设置-1,

PHP快速按行读取CSV大文件的封装类分享(也适用于其它超大文本文件)_php实例

CSV大文件的读取已经在前面讲述过了(PHP按行读取.处理较大CSV文件的代码实例),但是如何快速完整的操作大文件仍然还存在一些问题. 1.如何快速获取CSV大文件的总行数? 办法一:直接获取文件内容,使用换行符进行拆分得出总行数,这种办法对小文件可行,处理大文件时不可行:办法二:使用fgets一行一行遍历,得出总行数,这种办法比办法一好一些,但大文件仍有超时的可能:办法三:借助SplFileObject类,直接将指针定位到文件末尾,通过SplFileObject::key方法获取总行数,这种办

nio-java读取大文件csv格式

问题描述 java读取大文件csv格式 有一个2g的文件,传统io读写可能出问题,所以我想用nio方法先分割,生成temp文件,然后读取每个temp. 但是因为这个文件里面一条record不是按照行来分隔,比较乱,要写代码去判断如何分隔. 有没有什么其他好的办法读取文件? 解决方案 按行读取,不会出问题的.按行读取的原理是遍历文件,遇到换行符返回一行数据,而不是全部装入内存后分割. 解决方案二: Java大文件读取java读取大文件Java读取大文件

PHP读取大文件的多种方法介绍_php技巧

读取大文件一直是一个头痛的问题,我们像使用php开发读取小文件可以直接使用各种函数实现,但一到大文章就会发现常用的方法是无法正常使用或时间太长太卡了,下面我们就一起来看看关于php读取大文件问题解决办法,希望例子能帮助到各位. 在PHP中,对于文件的读取时,最快捷的方式莫过于使用一些诸如file.file_get_contents之类的函数,简简单单的几行代码就能 很漂亮的完成我们所需要的功能.但当所操作的文件是一个比较大的文件时,这些函数可能就显的力不从心, 下面将从一个需求入手来说明对于读取

VC++中使用内存映射文件处理大文件

摘要:本文给出了一种方便实用的解决大文件的读取.存储等处理的方法,并结合相关程序代码对具体的实现过程进行了介绍. 引言 文件操作是应用程序最为基本的功能之一,Win32 API和MFC均提供有支持文件处理的函数和类,常用的有Win32 API的CreateFile().WriteFile().ReadFile()和MFC提供的CFile类等.一般来说,以上这些函数可以满足大多数场合的要求,但是对于某些特殊应用领域所需要的动辄几十GB.几百GB.乃至几TB的海量存储,再以通常的文件处理方法进行处理