首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Flink scala项目依赖于flink java项目,因此调用java映射而不是scala映射

Flink scala项目依赖于flink java项目,因此调用java映射而不是scala映射
EN

Stack Overflow用户
提问于 2017-07-23 23:12:19
回答 1查看 36关注 0票数 0

我想创建一个用scala编写的flink项目。

当我导入时

代码语言:javascript
复制
'flink-scala_2.11',
'flink-streaming-scala_2.11'
'flink-core', 

我可以运行如下代码:

代码语言:javascript
复制
val someEventScalaStream = myScalaStreamm.map{x=>x.Part3} (it is using scala map function)

但我看到每一个都是这样:

代码语言:javascript
复制
flink-connector-rabbitmq_2.11
flink-connector-filesystem_2.11
flink-clients_2.11

所有这些都依赖于'flink-java‘。

因此,当所有这些都导入到我的解决方案中时,项目正在尝试使用java版本的map函数&没有编译。

有什么解决方案吗?

谢谢。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-07-23 23:48:32

通常,java和scala的apis放在不同的包中。所以要确保你使用的是正确的。例如,对于DataStream,您有

Java:

代码语言:javascript
复制
org.apache.flink.streaming.api.datastream.DataStream

Scala:

代码语言:javascript
复制
org.apache.flink.streaming.api.scala.DataStream

在这种情况下,建议在scala中导入:

代码语言:javascript
复制
org.apache.flink.streaming.api.scala._

如果这还不能解决你的问题,你能在使用map函数的java版本时发布一个具体的例子吗?

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/45266641

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档