首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用Spark-streaming进行实时日志分析??(我附加架构镜像)

如何使用Spark-streaming进行实时日志分析??(我附加架构镜像)
EN

Stack Overflow用户
提问于 2020-11-19 06:36:24
回答 1查看 205关注 0票数 0

Spark streaming应用程序实时接收来自大量IoT设备的数据。但它们都是少量的数据。整体流程看起来像是-> Iot -> Kafka(1个主题/所有数据) ->火花流(过滤错误日志) -> DB(保存) ->警报屏幕

有没有使用spark或python进行实时日志分析的好方法?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-11-19 11:22:39

显然,您可以使用spark- Kafka连接器来流式传输Kafka队列中的数据。

本文档对Kafka - https://spark.apache.org/docs/latest/structured-streaming-kafka-integration.html的结构化流式处理有一定的参考价值

从kafka获得流数据帧后,可以应用spark中的filter()函数来过滤传入的数据集。

此外,这篇来自databricks的文档对我们如何使用spark streaming实现日志分析应用程序有一些很好的参考。

https://databricks.gitbooks.io/databricks-spark-reference-applications/content/logs_analyzer/app/index.html

你可以参考上面的内容!

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64902515

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档