我正在设计一种网络服务,其中客户端连接和保持连接--这个模型离IRC不远,更少的是s2s连接。
我可能需要一些帮助来理解如何进行容量规划,特别是与处理来自客户端/向客户端的消息相关的系统资源成本。
有一篇文章试图让100万个客户端连接到同一个服务器1。当然,大多数客户端在测试中都是完全空闲的。如果客户端每5秒左右发送一条消息,系统肯定会崩溃。
但是..。你如何减少挥手,你知道,测量这样一个断点?
我们讨论的是客户端通过TCP套接字发送到内核并由应用程序读取的消息。数据在内存中从一个缓冲区转到另一个缓冲区。是否需要考虑内存吞吐量(“5GT/S”2等)?
我非常确信我有能力测量由于TCP/IP缓冲区、预期带宽和处理消息所需的CPU资源而产生的基本内存需求。我有点搞不懂我所谓的“思想”。
帮助!
还有,有人真的这么做吗?还是说,大多数人都会用手挥挥手,看看现实世界提供了什么,然后做出适当的反应呢?
1
2
发布于 2010-03-14 21:22:46
我们讨论的是客户端通过TCP套接字发送到内核并由应用程序读取的消息。数据在内存中从一个缓冲区转到另一个缓冲区。
不,不是的。如果你做得好的话就不会了。对于Linux,您应该查找sendfile(2)和splice(2)系统调用。其他内核可能也有类似的零拷贝功能,但AFAIK还没有标准化。
在实践中,最好编写程序尽可能简单,测量瓶颈在哪里,改进,测量,改进,.预测瓶颈是困难的,过早的优化是所有罪恶的根源(正如Knuth所说)。
https://serverfault.com/questions/117045
复制相似问题