我一直试图解决以下数值problem........Any帮助是赞赏的,以明确的概念。
“给定的源请求进入QoS网络,请求平均吞吐量为2 Mbit/秒,突发容量为2 Mbit。然后源以50 Mbit/秒的速度传输数据,持续时间为1毫秒。在此之后,源的吞吐量将缩小到1.8 Mbit/秒。将为该流保留的数据大小与上述吞吐量并排绘制为时间函数。这个源将经历多少数据丢失?该源应该使用什么突发容量来确保吞吐量功能不丢失数据?”
谢谢你
发布于 2011-04-21 05:29:07
假设
中占100%。
在T=1 mS时,10^-3秒已经过去,因此从缓冲区中清除了2*10^3字节。但是,在此期间,客户端在1 mS持续时间内产生(50*10^6)字节/秒,或总计50*10^3字节。
由于可用内存仅为2*10^3字节,前2*10^3字节将正确地“脱机”读取,其余的(48*10^3字节)将丢失,或导致致命的缓冲区溢出。
如果要避免数据丢失,至少还需要48*10^3字节的内存。对于这个数据突发,问题语句的其余部分没有意义,因为问题似乎是询问支持给定突发所需的缓冲,这是给定图上的峰值数据速率。
我不知道你想要的答案是什么,但我希望对网络机制的描述是有帮助的。
https://stackoverflow.com/questions/5706694
复制相似问题