首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >将ETL作业从IBM转换为Apache

将ETL作业从IBM转换为Apache
EN

Stack Overflow用户
提问于 2020-09-16 02:18:25
回答 1查看 939关注 0票数 0

我们所有的ETL工作负载都是在IBM和Oracle作为数据库上设计的,但现在,企业正在开放源码平台中寻找选择,该平台提供分布式并行计算,可以在更短的时间内完成相同的任务,并节省一些技术成本。我从来都不是一个Java人,但是我有Python知识,我也接受过Apache的正式培训,我想利用这些知识将我们现有的数据存储设计转换成Spark。下面给出了我们目前在所有数据存储工作上所做的一些常见操作

file(txt/csv)

  • perform

  • 从其他小数据表上的平面查找(正常/范围/稀疏)读取数据
  1. 执行与其他大表的连接
  2. 将数据写入表
  3. 调用Siebel企业集成管理器将数据从一个表加载到多个表的Siebel table
  4. extract数据,并创建一个平面file(txt/csv)
  5. ftp文件到目标服务器

G 219

所有这些操作都能从火花中完成吗?至少我正在寻求重新创建火花中的步骤#1、#2、#3、#4和#6,这是可以实现的(就我的星火知识而言)。

请帮助/将我转到在这方面有帮助的资源。

EN

回答 1

Stack Overflow用户

发布于 2020-09-24 03:50:48

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63912208

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档