我希望确保与m4相比,我正在正确解释AWS的entire定价模型。大型EC2实例(2vCPU,8GBMEM)连续运行一个月(730小时)(甚至降到1%的cpu/mem利用率)。
# Monthly cost estimates
Fargate:
cpu = 730hrs * 2vCPU * $0.056 = $73.88
mem = 730hrs * 8GB Mem * $0.0127 = $74.17
total = $73.88 + $74.17 = $148.05
EKS ec2 node (1 yr reserved no upfront):
total = 730hrs * $0.062 = $45.26
EKS ec2 node (on demand):
total = 730hrs * $0.10 = $73.00法尔盖特的价格似乎是EC2实例的3倍。我的法尔盖特价格看上去准确吗?我假设Fargate不打算用于类似24/7的网站,但更像是一次性的工作,类似于运行容器映像的Lamba函数。
我对整个Fargate任务cpu和mem分配的计费是否正确,而不管我是否使用了1%或100%的资源?
参考文献:
发布于 2018-11-03 15:47:12
你的计算在我看来是正确的。
我运行了一堆24/7的网站,作为0.25vCPU和0.5GB的RAM Fargate任务,仅仅是因为设置它们很容易。它们没有太多的流量,缓存也很重,但是如果需要的话,它们可以根据目标CPU扩展到10倍。
用这种方式,我认为它们很有成本效益。
更新: AWS更新法门价格2019年1月7日。现在的价格是每vCPU每小时0.04048美元,每GB内存每小时0.004445美元。你现在的例子是:
Fargate:
cpu = 730hrs * 2vCPU * $0.04048 = $59.10
mem = 730hrs * 8GB Mem * $0.004445 = $25.96
total = $59.10 + $25.96 = $85.06https://stackoverflow.com/questions/52843264
复制相似问题