腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(8)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
如何正确地向Google提交kafka流吡源作业
KafkaUtils spark = SparkSession.builder.master("local").appName("
Spark-Kafka-Integration
浏览 0
修改于2018-03-11
得票数 0
回答已采纳
1
回答
错误:值字符串不是org.apache.spark.rdd.RDD[org.apache.kafka.clients.consumer.ConsumerRecord[String,toDF的成员]]
下面是我的代码片段: val spark = SparkSession.builder().master("local[*]").appName("
Spark-Kafka-Integration
").getOrCreate
浏览 0
提问于2018-10-24
得票数 0
1
回答
Kafka和pyspark程序:无法确定dataframe为空的原因
ArrayType, StructField, IntegerType, StringType, DoubleType .appName("
Spark-Kafka-Integration
浏览 11
修改于2021-09-13
得票数 0
1
回答
java.lang.IllegalArgumentException:未指定路径// Spark Consumer问题
Logger.getRootLogger() .builder() .appName("
Spark-Kafka-Integration
浏览 18
修改于2019-01-11
得票数 0
回答已采纳
1
回答
在Spark structured streaming中使用来自Kafka的Avro事件
{Files, Path, Paths} val spark = SparkSession.builder.appName("
Spark-Kafka-Integration
").master("local
浏览 19
修改于2019-07-20
得票数 0
1
回答
直到我停止工作,火花结构化流写才会写文件
StructType} val spark = SparkSession .appName("
Spark-Kafka-Integration
浏览 2
修改于2019-02-28
得票数 3
回答已采纳
2
回答
使用Spark和Kafka流式传输时出现的空值问题
Logger.getRootLogger() .builder() .appName("
Spark-Kafka-Integration
浏览 2
修改于2019-01-10
得票数 1
1
回答
无法使用火花结构化流从Kafka主题中获取消息
下面是代码 val spark = SparkSession.builder .master(
浏览 0
修改于2018-12-14
得票数 1
领券