我正在为我们的数据科学家建立一个工作环境。目前,我们有一个单一的节点运行木星中心,安装了Anaconda和Dask。(2个带6个核心的插座,每个内核有2个线程,每个线程有140 gb的内存)。当用户创建LocalCluster时,目前的默认设置是占用所有可用的内核和内存(据我所知)。这在显式的情况下是可以的,但是我希望标准的LocalCluster使用比这个少。因为我们做的每一件事
现在,当查看配置时,我发现没有处理内存的n_workers、n_threads_per_worker、n_cores等配置,在dask.config.get('distributed.worker')中,我看到两个与内存相关的选项(memory和memory-limit)都指定了这里列出的行为:https://distributed.dask.org/en/latest/worker.html。
我还查看了jupyterlab dask扩展,它允许我完成所有这些工作。然而,我不能强迫人们使用朱庇特实验室。
在创建集群时,我希望能够设置以下标准配置:
任何关于配置的建议也是非常欢迎的。
发布于 2019-09-21 00:47:34
截至2019年至09-20年,这一目标尚未落实。我建议在https://github.com/dask/distributed/issues/new中提出一个特性请求,甚至是拉请求。
https://stackoverflow.com/questions/57969501
复制相似问题