file_get_contents => PHP致命错误:允许的内存耗尽

我没有处理大文件的经验,所以我不确定该怎么办。我试图使用 读取几个大文件;任务是使用

清洁和修补它们。

我的代码在小文件上运行良好;但是,大文件(40 MB)触发内存耗尽错误:

PHP Fatal error:  Allowed memory size of 16777216 bytes exhausted (tried to allocate 41390283 bytes)

我当时在考虑使用 但是我不确定那也行。有解决此问题的方法吗?

感谢您的输入。

这是我的代码:

<?php

error_reporting(E_ALL);

##get find() results and remove DOS carriage returns.

##The error is thrown on the next line for large files!

$myData = file_get_contents("tmp11");

$newData = str_replace("^M", "", $myData);

##cleanup Model-Manufacturer field.

$pattern = '/(Model-Manufacturer:)(\n)(\w+)/i';

$replacement = '$1$3';

$newData = preg_replace($pattern, $replacement, $newData);

##cleanup Test_Version field and create comma delimited layout.

$pattern = '/(Test_Version=)(\d).(\d).(\d)(\n+)/';

$replacement = '$1$2.$3.$4 ';

$newData = preg_replace($pattern, $replacement, $newData);

##cleanup occasional empty Model-Manufacturer field.

$pattern = '/(Test_Version=)(\d).(\d).(\d) (Test_Version=)/';

$replacement = '$1$2.$3.$4 Model-Manufacturer:N/A--$5';

$newData = preg_replace($pattern, $replacement, $newData);

##fix occasional Model-Manufacturer being incorrectly wrapped.

$newData = str_replace("--","\n",$newData);

##fix 'Binary file' message when find() utility cannot id file.

$pattern = '/(Binary file).*/';

$replacement = '';

$newData = preg_replace($pattern, $replacement, $newData);

$newData = removeEmptyLines($newData);

##replace colon with equal sign

$newData = str_replace("Model-Manufacturer:","Model-Manufacturer=",$newData);

##file stuff

$fh2 = fopen("tmp2","w");

fwrite($fh2, $newData);

fclose($fh2);

### Functions.

##Data cleanup

function removeEmptyLines($string)

{

return preg_replace("/(^[\r\n]*|[\r\n]+)[\s\t]*[\r\n]+/", "\n", $string);

}

?>

回答:

首先,您应该了解,在使用file_get_contents时,您将整个数据字符串提取到一个 变量中 ,该 变量 存储在主机内存中。

如果该字符串大于专用于PHP进程的大小,则PHP将停止并显示上面的错误消息。

解决此问题的方法是将文件作为指针打开,然后一次取一个块。这样,如果您有一个500MB的文件,则可以读取前1MB的数据,对其进行处理,然后从系统内存中删除该1MB,然后用下一个MB替换它。这使您可以管理要在内存中放入多少数据。

如果可以在下面看到一个示例,我将创建一个类似于node.js的函数

function file_get_contents_chunked($file,$chunk_size,$callback)

{

try

{

$handle = fopen($file, "r");

$i = 0;

while (!feof($handle))

{

call_user_func_array($callback,array(fread($handle,$chunk_size),&$handle,$i));

$i++;

}

fclose($handle);

}

catch(Exception $e)

{

trigger_error("file_get_contents_chunked::" . $e->getMessage(),E_USER_NOTICE);

return false;

}

return true;

}

然后像这样使用:

$success = file_get_contents_chunked("my/large/file",4096,function($chunk,&$handle,$iteration){

/*

* Do what you will with the {$chunk} here

* {$handle} is passed in case you want to seek

** to different parts of the file

* {$iteration} is the section of the file that has been read so

* ($i * 4096) is your current offset within the file.

*/

});

if(!$success)

{

//It Failed

}

您会发现的问题之一是,您试图对非常大的数据执行几次正则表达式。不仅如此,您的正则表达式还可以匹配整个文件。

使用上述方法,您的正则表达式可能会变得无用,因为您可能只匹配一半的数据。您应该做的就是还原为本地字符串函数,例如

  • strpos
  • substr
  • trim
  • explode

为了匹配字符串,我在回调中添加了支持,以便传递句柄和当前迭代。这将允许您与档案工作直接在回调中,让您使用类似功能fseekftruncatefwrite为实例。

构建字符串操作的方式无论如何都不是很有效,而使用上面提出的方法到目前为止是一种更好的方法。

希望这可以帮助。

以上是 file_get_contents =&gt; PHP致命错误:允许的内存耗尽 的全部内容, 来源链接: utcz.com/qa/421029.html

回到顶部