我有一个项目,我想运行在AWS上,但它超过了50 it的压缩限制。现在,它的压缩速度为128 it,带有虚拟环境的项目文件夹位于623 it,包括(空间的顶级用户):
没有virtualenv,项目就是<2MB。requirements.txt是:
click==6.7
cycler==0.10.0
ecdsa==0.13
Flask==0.12.2
Flask-Cors==3.0.3
future==0.16.0
itsdangerous==0.24
Jinja2==2.10
MarkupSafe==1.0
matplotlib==2.1.2
mpmath==1.0.0
numericalunits==1.19
numpy==1.14.0
pandas==0.22.0
pycryptodome==3.4.7
pyparsing==2.2.0
python-dateutil==2.6.1
python-dotenv==0.7.1
python-jose==2.0.2
pytz==2017.3
scipy==1.0.0
six==1.11.0
sympy==1.1.1
Werkzeug==0.14.1
xlrd==1.1.0我使用扎帕进行部署,所以我对整个基础结构的理解是有限的。我的理解是,一些库(极少数)没有被上传,所以对于numpy,这个部分没有上传,Amazon的版本已经在那个环境中可用了。
我建议使用以下工作流(而不使用S3桶进行slim_handler):
scipy.minimize,所以手动树抖动执行,方法是删除其中的大部分并重新运行测试。pyminifier混淆或者:
compileall以获取.pyc文件我在slim_handler: true上遇到了问题,要么是我的连接中断,要么是上传失败,要么发生了其他错误,而且在上传到S3的大约25%的时候,我得到了Could not connect to the endpoint URL。为了解决这个问题,我希望将依赖关系降到可管理的水平。
然而,超过一半的依赖项(主应用程序小于2MB )必须是某种记录。
我的问题是:
发布于 2018-01-28 07:28:12
我已经看到,所有的包都可以压缩到83 to (仅仅是包)。
我的解决办法是:
希望能帮上忙。
https://stackoverflow.com/questions/48480390
复制相似问题