我有一个像backupify这样的服务。它从不同的社交媒体平台下载数据,目前我有大约2500个活跃用户,为每个用户运行一个脚本,从facebook获取数据并将其存储在亚马逊S3上,我的服务器是亚马逊网络服务上的Ec2实例。
我在表格中有类似facebook用户的900个条目,有一个PHP脚本运行并从数据库表中获取用户,然后从facebook备份数据,然后从facebook中挑选下一个用户。
当我有不到1000个用户时,一切都很好,但现在我有超过2500个用户,问题是PHP脚本暂停,或运行前100个用户,然后暂停,超时等。我正在运行PHP脚本的php -q myscript.php命令。
另一个问题是,单用户脚本需要大约65秒才能到达数据库表中的最后一个用户,这可能需要几天的时间,那么在数据库表上并行运行的最佳方式是什么?
请建议我什么是最好的方式来备份大量的数据为大量的用户,我应该能够监测cron,有点像一个管理员。
发布于 2013-03-18 19:22:39
如果我没弄错的话,您有一个针对所有用户的cron任务,以一定的频率运行,试图在单个快照中处理每个用户的数据。
https://stackoverflow.com/questions/15475019
复制相似问题