我试图通过在必要时延迟数据包来模拟人工网络条件(被模拟的应用程序是一个Java应用程序)。
我面临的问题是,应用程序检测到它已经有一段时间没有收到ACK并重新传输。这在两端都会发生,导致裂变反应。数据包被无序接收,最终,一端发送RST数据包。
我想确保这种情况永远不会发生。我该如何避免这种情况呢?
谢谢
更新:一些Wireshark捕获会话镜像:http://db.tt/fav2sRgL和http://db.tt/zGXwMubk
发布于 2012-06-05 04:06:22
听起来您持有数据包的时间超过了1秒,这在网络领域是一个很长的时间,TCP不会满意。由此产生的故障级联很可能是TCP所带来的结果。
但首先,您需要考虑这种类型的延迟是否真的是您想要模拟的。数据包通过路径所需的时间(单向)、往返时间(往返)以及应用程序处理和响应所需的时间(独立于网络堆栈)之间存在很大差异。
我写了几篇关于network statistics和emulation的文章,你可能会发现它们很有用。
免责声明:我在一家生产替代传输协议的公司工作。
发布于 2012-05-26 17:02:53
解决方案取决于仿真的目的。
如果您想要线路级的保真度,您将需要控制整个TCP堆栈来管理计时。相反,如果您希望模拟套接字级别的行为,则可以通过使用保持流不变的零长度段进行响应来防止ACK风暴。
显然,仍然会有TCP数据段,它们只是不包含任何有效负载。
观察到帧是无序发送的,这很奇怪,因为这将暗示一个包含大量缓冲的环境。您是在路由WAN上还是在单个LAN网段上进行测试?
发布于 2012-05-26 18:21:20
重新传输尚未到达的数据包是TCP所做的事情。完全无序的延迟到达--具体地说是ACKs -破坏了它的同步安全余量,它就会中止。
https://stackoverflow.com/questions/10764908
复制相似问题