我不确定在这里张贴完整的代码或张贴一个例子是否有帮助,因为它是相当大的脚本,我将张贴我认为是必要的组件。
我调用了一个txt文件,并将每个新行作为一个数组进行计数,并将其放入foreach循环中
set_time_limit(0);
ini_set('show_errors', 1);
$file = "file.txt";
$handle = fopen($file, "r");
while (($name = fgets($handle)) !== false) {
$row = explode ("<br>", $name );
foreach ($row as $fname) {
/* ... some code ... */
}
}在foreach循环中,我有大约4个Curl操作,然后是一些phpexcel functions和一个else语句,其中包含4个以上的curl操作(相同),
我应该做什么来优化性能,我在考虑要么像上面那样在一个单独的文件中运行foreach语句,然后只使用include()进行其余的操作,要么使用函数进行curl操作,但我很感兴趣的是,是否有人有关于如何提高性能的想法。
发布于 2013-05-14 11:06:06
既然您使用cURL获取多个资源,那么如果您提前知道它们是什么(并且不必连续下载它们),为什么不使用多cURL呢?您可以同时获取所有资源。您可以使用use it directly,也可以使用众多简化它的类中的一个。https://github.com/jmathai/php-multi-curl
https://stackoverflow.com/questions/16534387
复制相似问题