所以我的情况是,我一直在尝试基于一些数据科学管道来分配python的负载,经过大量的搜索和一些QA (Scale out jobs with high memory consumption but low computing power within AWS and using Docker: finding best solution),我得出的结论是,Nuclio可能是一个很好的选择,最有可能构建在kubernetes之上。然而,一个主要的问题仍然存在:
假设我想这样做:
@run_with_nuclio
def step_1(context):
# in the docker image
import pandas as pd
# in my project, using submodules
from my_big_submodule_1 import do_this
from my_big_submodule_2 import do_that
do_this()
do_that()我过去遇到过严重的“上下文”问题,所以现在我的超级聪明、超级安全的解决方案是打包(从字面上看,获取项目中的所有py文件,将它们压缩),将它们传递给要执行的函数(在远程环境中),在那里解压缩它们,然后运行函数。
这是“好”的,因为它为我提供了巨大的灵活性。但这种意大利面条的解决方案不是可行的。
有没有办法通过利用Nuclio框架来做到这一点?(函数似乎包含所有信息,从不调用“经典”包中不存在的外部包)
发布于 2021-09-23 19:26:59
如果我正确理解了您的问题,您正在寻找一种方法来在Nuclio函数中利用项目中的外部Python模块?
如果是这样的话,解决方案不是以Nuclio为中心,而是以Docker为中心。您需要确保您的Python模块在Docker环境中可用。有两种方法可以完成此操作:
Docker
https://stackoverflow.com/questions/69305724
复制相似问题