我在一些论坛中发现了一个计算帧大小与传播延迟和带宽的函数的公式:frame size >= 2*(propagation delay)*bandwidth,但是我找不到任何可靠的参考,无论是书还是论文,都提到了这样的公式。这个公式正确吗?如果是,谁能解释一下背后的逻辑吗?事实上,在此之前,我一直认为frame size = propagation delay*bandwidth。
发布于 2017-08-01 16:09:15
在我看来,这是基于守恒分组原则(在服务质量方面-避免拥塞),其中指出:
在取出/删除数据包之前,不会将任何数据包插入到网络中。
(很抱歉,我没有找到原始的参考资料,但是看看谷歌就能找到几个参考资料)。
正如@Zac67 67所评论的那样,它取决于上下文。如果您只考虑“盲目地”发送数据,您的假设frame size = propagation delay*bandwidth是正确的。我的意思是,如果你继续以相同的速率发送帧,而不考虑丢失/拥塞(例如。(与UDP)。
以下只是一些想法的结果。这并不是为了成为绝对的真理。然而,在处理拥塞时,一些机制使用了拥塞通知。其基础是:当你从A到B发送一个数据包时,B向A发送一个消息。(通知)。源做他想做的任何事情(调整吞吐量,其他参数,.)。当目的地一次确认一个数据包时,TCP就是这种情况。在这种情况下,为了遵循包守恒原则,源在收到通知时发送一个新数据包,即在A->B和B->A的传播延迟之和之后,考虑到A->B和B->A都是相等的,一个新的数据包在2*propagation delay之后进入管道。
在这种情况下,不浪费带宽,帧大小可以加倍。
https://networkengineering.stackexchange.com/questions/42908
复制相似问题