(如果我说错了这个问题,很抱歉)
我在一个16核心的Parallella板上运行一些应用程序,我想知道是否有一种方法来计算最慢的核心所花费的时间?
我认为,如果我添加user + sys时间,我将得到所有核的执行时间之和,对吗?
以下是一些结果:
real 0m1.927s
user 0m3.190s
sys 0m0.080s发布于 2015-07-26 17:07:51
消歧
以“并发”方式安排的基于多核的操作模式与并行模式处理之间有很大的区别。
在Parallella板上,如果说到user --一种双核ARM Cortex -- A9 CPU / Xilinx 7系列芯片上的FPGA --你可以从车载linux上获得sys + Zynq值。对于Epiphany MPPA (大规模并行处理器阵列)硬件设备或附加的可并行的FPGA-hardware可加载软核来说,情况并非如此。
还请注意,在真正的并行系统上,“较慢”或“最慢”核心一词失去了其意义,因为所有处理器都以并行方式开始和结束,有关详细信息,请参阅occam-pi中的occam-pi语法构造函数(即使代价是等待不同的可选处理路径,因此它们都并行完成)。
怎么做?
其中可能包括一些信号数据,以便在MPPA代码执行过程中存储时钟计数器值/稍后从Linux/ARM端检索,并使用这些遥测记录数据评估预先记录的"inside-MPPA“前的代码执行时间。
在体内追踪/状态诊断/检查-分析-工具中,做同样的实时可能是可能的,但为了这样一个实时系统-SysMONITOR,需要大量的系统特定的工程工作。
然而,这是可行的。类似的方法用于对FSA设计/验证中的状态转换进行可视化检查。
https://stackoverflow.com/questions/24894805
复制相似问题