对于开发人员来说,
我正在为Azure Data Lake做基准测试,我看到大约7.5MB/S用于读取同一区域中的ADL Store和写入VHD。这是PowerShell和C#的情况,代码取自以下示例:
PowerShell代码来自https://azure.microsoft.com/en-us/documentation/articles/data-lake-store-get-started-powershell/ C#代码来自https://azure.microsoft.com/en-us/documentation/articles/data-lake-store-get-started-net-sdk/
上面的代码示例是否可以用于基准测试,或者是否会交付新的SDK来提高吞吐量?另外,当ADL Store变得普遍可用时,是否有预期的吞吐量数字?
谢谢,马克
发布于 2016-05-10 03:51:04
文档中提供的代码可用于构建基准测试。在Azure Data Lake正式可用之前,SDK将经历几个版本和更新。除了功能之外,这些功能还将包括性能改进。
关于性能基准的主题,我们的一般指导如下。Azure Data Lake服务当前处于预览中。我们一直在努力改进服务,包括通过这个预览阶段的性能。随着我们越来越接近一般可用性,我们将考虑发布关于预期的性能结果类型的额外指导。性能结果在很大程度上取决于许多因素,例如测试拓扑、配置和工作负载。因此,如果不检查所有这些,就很难评论你的观察结果。如果你能在线下联系我们,我们将很乐意看一看。
Amit Kulkarni (项目经理- Azure Data Lake)
发布于 2016-02-27 15:56:05
我开始编写Azure Data Lake Storage Throughput Analyzer,并将第一个代码比特放在GitHub上。
你应该在Azure VM上运行该工具,以不测量你的互联网连接。
请随时将您的想法和代码贡献添加到我的GitHub代码库。
我希望这能帮到你。
https://stackoverflow.com/questions/35432928
复制相似问题