我拷贝大文件的时候报“超过文件大小限制”错误,怎样突破这个限制?

解决方法:

使用下面命令查看系统设定的用户限制:

ulimit -a

得到类似于下面的输出:

$ ulimit -a
core file size        (blocks, -c) 0
data seg size         (kbytes, -d) unlimited
file size             (blocks, -f) 2048000
max locked memory     (kbytes, -l) unlimited
max memory size       (kbytes, -m) unlimited
open files                    (-n) 1024
pipe size          (512 bytes, -p) 8
stack size            (kbytes, -s) 10240
cpu time             (seconds, -t) unlimited
max user processes            (-u) 4089
virtual memory        (kbytes, -v) unlimited

上面的输出指出文件大小限制是2GB。如果你不想受限,编辑/etc/security/limits.conf文件,检查fsize参数的设定。如果这个fsize参数已经设定,你可以删除或者在行受就加上#号注释掉该行。

完成以上操作之后,重新登录,执行ulimit -a,看看是不是得到类似以下输出:

$ ulimit -a
core file size        (blocks, -c) 0
data seg size         (kbytes, -d) unlimited
file size             (blocks, -f) unlimited
max locked memory     (kbytes, -l) unlimited
max memory size       (kbytes, -m) unlimited
open files                    (-n) 1024
pipe size          (512 bytes, -p) 8
stack size            (kbytes, -s) 10240
cpu time             (seconds, -t) unlimited
max user processes            (-u) 4089
virtual memory        (kbytes, -v) unlimited

如果不是,你可能需要在/etc/security/limits.conf文件添加如下一行:

<User Name>        -       fsize       unlimited

你必须重新登录使改变生效。再次执行ulimit -a,确认设定是正确的。

时间: 2024-10-26 08:17:42

我拷贝大文件的时候报“超过文件大小限制”错误,怎样突破这个限制?的相关文章

图片-无法从本地拷贝大文件到远程服务器上

问题描述 无法从本地拷贝大文件到远程服务器上 从本地拷贝一些小文件到服务器上是没有问题的,但是大文件比如超过1G的文件,就会报错,不知道是什么原因.. 解决方案 服务端是不是对文件大小有限制,或者你该用ftp试试 解决方案二: 尝试过ftp上传,也是不能上传大文件,检查了服务器没有对文件大小限制呀 解决方案三: FTP上传有时间限制的,可以手动调一下时间 解决方案四: 用FTP 或者在服务器上安装个百度云盘,把东西上传上去,在远程服务器上下载

IO流拷贝大文件电影死循环

问题描述 此代码能拷贝图片.音乐,但为什么不能拷贝电影呢?测试结果:while循环停不下来,read方法一致读取!java大神,救我!! 解决方案 解决方案二:代码看着没有问题的,你的电影多大呢?刚试了个1G大小的安装文件,一点问题都没有解决方案三:定义这么大的数组,为何不用缓冲呢.看代码异常块也没有包啊.解决方案四:没有死循环的,是因为文件过大而用数组读取的时候效率不高,所以花费的事件多,多等一会就OK大文件建议使用缓冲区操作解决方案五:我试了一下我的代码,3.8G是可以的,你试试行不行pac

shell脚本实现拷贝大文件显示百分比的代码分享_linux shell

复制代码 代码如下: #!/bin/sh strace -q -eread cp -- "${1}" "${2}" 2>&1 \ | awk '{     count += $NF     if (count % 10 == 0) {         percent = count / total_size * 100         for (i=0;i<=percent;i++)             printf("="

RESPONSE IO流的方式下载,大文件如何处理,求教!

问题描述 代码如下:publicvoiddownFILE(Stringdest,OutputStreamos){FileInputStreamfis=null;try{fis=newFileInputStream(dest);byte[]buffer=newbyte[4096];intn;while((n=fis.read(buffer,0,buffer.length))!=-1){os.write(buffer,0,n);}}catch(Exceptione){}finally{try{fis

u盘拷贝文件过大怎么解决 大文件无法复制到U盘怎么办?

u盘拷贝文件过大怎么解决  大文件无法复制到U盘怎么办   大文件无法复制到U盘怎么办?u盘拷贝文件过大解决办法 先来说说U盘无法复制大文件的原因: 一般来说,导致U盘无法拷贝大文件,一般是4GB以上的大文件,容易遇到"复制文件过大无法复制"的情况,而导致这种情况主要是U盘文件系统格式的问题. 一般U盘默认为FAT文件系统,它无法支持超过4GB以上的单个文件,而NTFS文件系统的限制最高可达2TB. 大文件无法复制到U盘的解决办法 找到原因后,解决起来就比较简单了,只有解除U盘复制文件

电脑大文件无法复制到U盘问题解决办法

大文件无法复制到U盘怎么办?u盘拷贝文件过大解决办法 先来说说U盘无法复制大文件的原因: 一般来说,导致U盘无法拷贝大文件,一般是4GB以上的大文件,容易遇到"复制文件过大无法复制"的情况,而导致这种情况主要是U盘文件系统格式的问题. 一般U盘默认为FAT文件系统,它无法支持超过4GB以上的单个文件,而NTFS文件系统的限制最高可达2TB. 大文件无法复制到U盘的解决办法 找到原因后,解决起来就比较简单了,只有解除U盘复制文件大小限制即可,简单来说,就是将U盘文件系统改成NTFS即可.

winhttp 亚马逊云盘-使用winhttp向亚马逊云盘上传文件时,报12030错误

问题描述 使用winhttp向亚马逊云盘上传文件时,报12030错误 我用winhttp协议做上传文件时,上传文件到云盘,上传中途在WinHttpWriteData 处出错,报12030,有谁知道,有避免的方法吗 解决方案 12030 ERROR_INTERNET_CONNECTION_ABORTED The connection with the server has been terminated. 是不是有中文名等特殊字符 解决方案二: 不是这个原因,我传小文件就能传成功,传大文件就会报那

suse linux java ftp上传文件名称导致报错,求大神指导

问题描述 suse linux java ftp上传文件名称导致报错,求大神指导 上传时"school_user.questionext.csv"就因为文件名称多了一个"."导致报错 553 Could not create file.

mvc中使用uploadify 无法上传大文件 提示超过长度

问题描述 mvc中使用uploadify 无法上传大文件 提示超过长度 我使用uploadify上传 修改的配置文件可是还是无法上传超过4M的文件 view代码 <link href="~/Scripts/jquery.uploadify-v2.1.0/default.css" rel="stylesheet" type="text/css" /> <link href="~/Scripts/jquery.upload