有两个测试:
ioping -c 10 -S 4K -D .
9 requests completed in 2.49 ms, 36 KiB read, 3.61 k iops, 14.1 MiB/s
generated 10 requests in 9.00 s, 40 KiB, 1 iops, 4.44 KiB/s
min/avg/max/mdev = 259.5 us / 277.0 us / 325.0 us / 19.9 ussudo fio --ioengine=libaio --direct=1 --rw=read --bs=4K --numjobs=1 --iodepth=1 --runtime=10 --time_based --name seq_read --filename=/fiotest --size=100m
read: IOPS=19.8k, BW=77.5MiB/s (81.2MB/s)(775MiB/10001msec)
clat (nsec): min=830, max=11311k, avg=44909.47, stdev=76899.23两者使用相同的块大小,但延迟和iops的结果完全不同。为什么会这样呢?
发布于 2020-10-24 08:03:57
两者使用相同的块大小,但延迟和iops的结果完全不同。为什么会这样呢?
你可能比较不同的事情:不同的管理费用,不同的提交I/O的方式等等。
例如:
试图在不同的工具之间进行比较通常是行不通的,除非您知道每个工具确实在做相同的事情。试着坚持将同一工具的结果与其自身进行比较。fio并不是专为执行“doing”而设计的,但它在Linux上提交I/O时可能会有一定的效率。
https://serverfault.com/questions/1039034
复制相似问题