我正在尝试通过Microsoft Learning -使用Azure Streaming Analytics实施数据流解决方案。我目前正在做一个练习,我们设置一个作业来处理,用查询转换它,然后返回结果。
我遇到的问题是,当我开始我的工作时-它只是无限地运行,并且不会完成。我没有收到错误消息。当我检查文档时,它说这可能是输入的问题,但我已经返回到我的输入文件并测试了数据,它是可见的。
有谁能给我指明前进的正确方向吗?非常感谢
发布于 2020-07-15 17:44:10
注意: Azure流分析作业将永远运行,直到我们手动停止该作业。
Azure流分析作业可以通过Azure门户、Azure PowerShell、Azure SDK for .Net或REST API轻松停止或删除。流分析作业一旦被删除,将无法恢复。
MS学习教程- "Implement a Data Streaming Solution with Azure Streaming Analytics“- "Transform data by using Azure Stream Analytics",此模块提供了有关如何创建Azure Stream Analytics作业、设置输入、编写转换查询和设置输出的基本示例。您使用Azure Storage作为源和目标,并创建了一个转换查询来生成一些基本结果。您还学习了如何启动Stream Analytics作业并查看作业结果。
在摘要部分中,他们提供了清理资源组中资源的方法。
清理
为了避免不必要的费用,您需要删除为此模块创建的所有资源。这包括两个存储帐户和流分析作业。您可以单独删除这些帐户,但删除资源组mslearn-streamanalytics会更容易
select the >选择该组,然后选择“Delete group.

什么是Azure流分析?
Azure Stream Analytics是一个实时分析和复杂事件处理引擎,旨在同时分析和处理来自多个源的大量快速流数据。可以在从许多输入源提取的信息中识别模式和关系,这些输入源包括设备、传感器、点击流、社交媒体馈送和应用程序。这些模式可用于触发操作和启动工作流,例如创建警报、向报告工具提供信息或存储转换后的数据以供以后使用。此外,流分析在Azure IoT边缘运行时可用,支持在IoT设备上处理数据。
以下是您可以使用Azure Stream Analytics的示例:
发布于 2020-07-23 07:07:45
我也刚学完这个单元。练习要求“现在”开始管道,这是当前时间。这将导致管道仅在管道开始运行后才开始处理数据。我还没有尝试过,但是如果您在管道建立之后将一个新的JSON文档放入该文件夹中,它可能会处理得很好。
我通过指定"Custom“并确保在示例JSON输入被放入源blob容器之前设置了一个时间(为我设置了一个小时)修复了这个问题。
在此更改之后,一旦管道运行起来,输出计数器几乎立即递增,我可以在正确的目录中看到结果。
发布于 2021-01-24 08:40:35
实际上,我也有同样的问题,在思考了5分钟后,我记起这是一个流作业(连续),直到你停止它才会结束。转到您的输出bob容器并检查您是否有该文件
https://stackoverflow.com/questions/62818134
复制相似问题