下午,
最近我遇到了AWS、Lambda和Azure函数。AWS对压缩文件和解压缩文件的大小施加了限制,对于python脚本来说,压缩文件需要包含所有依赖模块。我一直在使用lambda上传器来打包我的脚本和它的模块依赖性,但是熊猫包太大了。
我见过人们在AWS Lambda上完成机器学习和使用熊猫的例子(不过有点过时),但我看不出他们是如何做到的。有什么建议吗?
发布于 2018-03-30 03:05:40
上传到lambda的包不应该包含任何内容,只应该包含运行代码所需的代码和支持模块。Lambda控制台UI 限制文件大小为10 to,但如果将压缩文件放到S3桶中,然后请求Lambda从S3加载它们,则可以上传高达50 to的压缩文件。
执行所需的任何其他资产,如机器学习模型,都应分别上载到S3,然后在执行时从Lambda函数中下载。Lambda函数可以写入/tmp文件夹,但请记住,它只能访问512 of的磁盘空间。还请记住,Lambda函数的最大运行时间为300秒,所以下载非常大的文件将占用您的函数的时间,对正在下载的数据进行真正的工作。
发布于 2019-08-07 18:52:01
如果您使用的是Python库,您可以去掉botocore,boto3,因为它们已经存在于AWS的lambda函数中。
发布于 2018-08-02 00:50:52
尝试使用扎帕。将slim_handler添加到使用zappa init制作的zappa_settings.json中的zappa_settings.json中。
https://stackoverflow.com/questions/49567804
复制相似问题