我正在尝试为一个学校项目创建一个使用raspberry-pi cluster的dispy。
为了尝试一下,我只使用一个RPi作为node,使用我的pc作为请求作业的master。
在设备及其ip下面:
master (pc) --> 192.168.1.106
node (rpi) --> 192.168.1.105节点配置
我在我的节点中执行dispynode时:
sudo dispynode.py -i 192.168.1.105其中:
sudo以确保在权限方面不会出现问题-i 192.168.1.105告诉节点为通信设置的地址(文档)控制台输出:
2015...12:21 - dispynode - dispynode version 4.5
2015...12:21 - dispynode - serving 1 cpus at 192.168.1.105:51348我说:“看上去不错!”
主配置
我编写了一个小的python脚本来测试集群:
import dispy
cluster = dispy.JobCluster(
"/bin/ls",
nodes=["192.168.1.105"],
ip_addr="192.168.1.106"
)
cluster.stats()其中:
cluster将是一个具有以下规范的新JobCluster"/bin/ls"是可执行文件的路径,是节点的作业。nodes包含将接收作业的节点的地址(在本例中,只有一个,我的rpi)ip_addr是主机用于通信的地址。cluster.stats()打印有关创建的集群的统计信息。我希望只有一个节点连接到,但是当我运行这个脚本时,我得到了以下统计数据:
2015...12:22 - dispy - Storing fault recovery information in "_dispy_2015..."
Node | CPUs | Jobs | Sec/Job | Node Time Sec
-----------------------------------------------------------------------------
Total job time: 0.000 sec如您所见,没有连接到主的rpi节点.
另外,创建的fault recovery file是空的。
如何将节点连接到主节点?
我用的是错误的方式-- dispynode 还是主脚本?
注释和有用的:
dispy。ping从主节点到达节点,反之亦然。ufw是禁用的。发布于 2016-06-30 21:39:05
你试过提交工作了吗?Dispy可能只有在有实际作业时才会启动连接。
https://stackoverflow.com/questions/33479912
复制相似问题