首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏IT从业者张某某

    05-PDI(Kettle)脚本执行

    文章目录 05-PDI(Kettle)脚本执行 pan和kitchen实验背景 pan命令演示 创建脚本文件:transschdule.bat kitchen命令演示 定时任务中 05-PDI(Kettle 切换到pdi的安装目录: C:\WINDOWS\system32>cd /d E:\pdi-ce-8.2.0.0-342\data-integration 执行Pan.bat命令,会提示支持的相关参数: E:\pdi-ce-8.2.0.0-342\data-integration>Pan.bat 返回参数如下。 value 指定命名参数 -log=logging filename 设置日志文件 -level=logging level 设置日志级别 创建脚本文件:transschdule.bat cd /d E:\pdi-ce 指定日志级别 logfile 日志文件名 指定要写入的日志文件名 version 显示Kettle的版本号、build日期 实验步骤 1、切换到kettle文件所在目录 右键点击桌面的spoon图标,打开PDI

    1.6K30编辑于 2022-11-12
  • 来自专栏源哥的专栏

    Kettle(PDI)的坑,有点大

    Kettle是什么 Kettle 是 PDI 以前的名称,PDI 的全称是Pentaho Data Integeration,Kettle 本意是水壶的意思,表达了数据流的含义。

    9.5K41发布于 2020-06-07
  • 来自专栏IT从业者张某某

    04-PDI(Kettle)job案例

    文章目录 04-PDI(Kettle)job案例 job简介 job创建案例 1.创建空作业 2.创建空转换 3创建作业 job参数设置 1.创建转换:charpter05-1-02变量设置步骤 2.创建作业 :charpter05-1-02变量设置 设置变量总结 作业监控操作 实验步骤 04-PDI(Kettle)job案例 job简介 本实验是kettle的作业设计,区别与步骤的并行执行,作业的各作业项具有先后执行顺序

    92320编辑于 2022-11-12
  • 来自专栏IT从业者张某某

    01-PDI(Kettle)简介与安装

    文章目录 01-PDI(Kettle)简介与安装 PDI(Kettle)简介 Kettle安装 Kettle核心知识点 01-PDI(Kettle)简介与安装 最好的学习资料就是官网,附上官网文档地址: PDI官方文档地址 https://help.hitachivantara.com/Documentation/Pentaho/9.2/Products/Pentaho_Data_Integration PDI(Kettle)简介 Kettle是一个Java编写的ETL工具,主作者是Matt Casters,2003年就开始了这个项目,目前最新稳定版为9.2。 (Kettle)简介与安装呢,这是因为 Kettle在2006年初加入了开源的BI公司Pentaho, 正式命名为:Pentaho Data Integeration,简称“PDI”。 下载完成,将压缩包解压,解压完成,只要电脑有jdk1.8环境,即可直接使用,本博客的安装目录: E:\pdi-ce-8.2.0.0-342\data-integration\ 目录结构 3.

    3.5K20编辑于 2022-11-12
  • 来自专栏IT从业者张某某

    02-PDI(Kettle)导入与导出

    文章目录 02-PDI(Kettle)导入与导出 多个excel表格数据的合并 实验步骤: 拓展 Excel介绍 基于文本的数据导入与导出 实验步骤 扩展 回车与换行的区别 基于XML文本的数据导入导出 步骤设计 扩展 XML教程 基于JSON文本的数据导入导出 实验步骤 拓展 JSON 基于数据库的数据导入与导出 实验步骤 拓展 kettle分享数据库连接 02-PDI(Kettle)导入与导出 本文主要介绍基于

    3.6K10编辑于 2022-11-12
  • 来自专栏有困难要上,没有困难创造困难也要上!

    编译Kettle的PDI DB Dialog模块失败

    检查了一下下面的地址,发现其下没有小写i的目录,只有大写I的目录,估计是这几天第三方包有改过名字所导致的。

    1.8K20发布于 2018-12-12
  • 来自专栏IT从业者张某某

    03-PDI(Kettle)导入与导出CDC

    文章目录 03-PDI(Kettle)导入与导出CDC 数据的全量、增量、差异备份 基于时间戳的源数据CDC 实验原理 实验步骤 基于触发器的CDC 实验原理 实验步骤 基于快照的CDC案例 实验原理 实验步骤 03-PDI(Kettle)导入与导出CDC 数据的全量、增量、差异备份 参考博客: https://blog.csdn.net/qq_38097573/article/details/103593150

    1.1K20编辑于 2022-11-12
  • 来自专栏路过君BLOG from CSDN

    pentaho pdi(kettle) spoon检测空流对象用法

    版本 pentaho-pdi-ce 9.2 说明 如果输入流为空时,输出流将自动添加一行空行(所有字段为null)。

    1K10编辑于 2021-12-07
  • 来自专栏编程使我快乐

    使用PDI从Mysql抽取数据存入到Sqlite

    自定义连接URL:jdbc:sqlite:/data/testdb.sqlite3 自定义驱动类型 org.sqlite.JDBC

    2.1K20发布于 2020-11-04
  • 来自专栏IT从业者张某某

    07-PDI(Kettle)源码编译8.2.0.0.R版本

    文章目录 07-PDI(Kettle)源码编译8.2.0.0.R版本 1.安装PDI8.2.0.0.R的parent工程到本地 1.1配置Maven的settings.xml文件 1.2安装PDI源码依赖的 parent工程到本地仓库 1.3下载并编译PDI8.2.0.0.R源码 1.下载源码 2.用idea打开--问题及解决方案 3.用idea运行--问题及解决方案 1.4运行项目 1.5小技巧 总结 07 -PDI(Kettle)源码编译8.2.0.0.R版本 博客上有很多关于PDI源码编译的文章,但大多版本较早,或是有些文件已经找不多,本博客基于2021年10月的PDI源码编译过程制作而成,并在编译过程中解决了对应的问题 1.安装PDI8.2.0.0.R的parent工程到本地 1.1配置Maven的settings.xml文件 PDI编译过程中的很多依赖需要从Maven的远程私有仓库中下载,这个私有仓库的地址包含在PDI 源码依赖的parent工程到本地仓库 PDI源码目前基于Maven构建,源码的依赖来源于其父工程pentaho-ce-jar-parent-pom,进入到pentaho-ce-jar-parent-pom

    3.3K20编辑于 2022-11-12
  • 来自专栏IT从业者张某某

    06-PDI(Kettle)读取Hive写入HDFS,读取HDFS写入HBase中

    文章目录 06-PDI(Kettle)读取Hive写入HDFS,读取HDFS写入HBase中 环境准备 1.安装MySQL 1.1mysql安装参考: 1.2安装过程 2.安装HIVE 2.1参考: 2.2hadoop 依赖 1.2hive建表 2.读取hive写入HDFS 2.1工作流设计 2.2 具体转换设计 3 读取HDFS写入HBase 3.1工作流设计 3.2启动HBase 3.3具体转换设计 总结 06-PDI

    1.9K20编辑于 2022-11-12
  • 来自专栏路过君BLOG from CSDN

    pentaho pdi(kettle) spoon创建映射获取OAUTH2 TOKEN并封装header参数值

    版本 pentaho-pdi-ce 9.2 创建转换 映射输入规格 通过环境参数控制多环境切换 自定义常量数据保存多环境的认证服务器地址 自定义常量数据保存客户端认证信息 通过JS代码输出对应环境的

    1.1K40编辑于 2021-12-07
  • 来自专栏从零开始学 Web 前端

    PCI配置空间简介

    define PDI_BUS_MAX 0xFF #define PDI_BUS_MASK 0xFF00 #define PDI_DEVICE_SHIFT 3 # define PDI_DEVICE_SIZE 5 #define PDI_DEVICE_MAX 0x1F #define PDI_DEVICE_MASK 0x00F8 # define PDI_FUNCTION_SHIFT 0 #define PDI_FUNCTION_SIZE 3 #define PDI_FUNCTION_MAX 0x7 #define PDI_FUNCTION_MASK 0x0007 #define MK_PDI(bus,dev,func) (WORD)((bus&PDI_BUS_MAX)<<PDI_BUS_SHIFT | ( dev&PDI_DEVICE_MAX)<<PDI_DEVICE_SHIFT | (func&PDI_FUNCTION_MAX) ) /* PCI配置空间寄存器 */ #define PCI_CONFIG_ADDRESS

    5.4K30发布于 2018-08-31
  • 来自专栏区块链哈希

    合约量化系统开发(搭建讲解)丨合约量化系统开发(源码解析及现成案例)

    因此相比传统合约,智能合约有经济、效率高的优势 开仓条件: ① PDI 向上交叉MDI 时,做买。 ② PDI 向下交叉MDI 时,做卖。 ④ 当ADX 滑落至 PDI之下时,不进场交易。 PDI: DMP*100/TR; MDI: DMM*100/TR; ADX: MA(ABS(MDI-PDI)/(MDI+PDI)*100,M);//MDI与PDI差的绝对值与(MDI+PDI)*100 ADXR:(ADX+REF(ADX,M))/2; CROSS(PDI,MDI) && ADX>PDI && ADXR>0,BPK; CROSSDOWN(PDI,MDI) && ADX>PDI &&

    86250编辑于 2022-06-28
  • 来自专栏历史专栏

    【愚公系列】2023年07月 Pandas数据分析之MultiIndex

    3.类型转换 Pandas(以及Python本身)区分数字和字符串,因此在无法自动检测数据类型时,通常最好将数字转换为字符串: pdi.set_level(df.columns, 0, pdi.get_level 它可以使用pdi.vis(df)手动可视化,也可以使用pdi.vis_patch()对DataFrame HTML输出进行monkey补丁自动可视化。 pdi.set_level(obj, level_id, labels)用给定的数组(list, NumPy array, Series, Index等)替换关卡的标签 pdi.insert_level (obj, pos, labels, name)使用给定的值添加一个层级(必要时适当广播) pdi.drop_level(obj, level_id)从多重索引中删除指定的级别 pdi.swap_levels 或者,你也可以使用pdi.assign: pdi.assign是锁定顺序感知的,所以如果你给它一个(多个)锁定级别的dataframe,它不会解锁它们或后续的栈/解栈/等。

    1.4K10编辑于 2025-05-28
  • 来自专栏数据STUDIO

    Pandas图鉴(四):MultiIndex

    类型转换 Pandas (以及Python本身)对数字和字符串有区别,所以在数据类型没有被自动检测到的情况下,可以将数字转换为字符串: pdi.set_level(df.columns, 0, pdi.get_level 只有在pdi.patch_mi_co()之后才有效。 它可以通过pdi.vis(df)手动实现可视化,也可以通过pdi.vis_patch()对DataFrame的HTML表示进行猴子修补来自动实现。 ; pdi.drop_level(obj, level_id)从MultiIndex中删除指定的level(向df.droplevel添加inplace参数): pdi.swap_levels(obj 或者,你也可以使用pdi.assign: pdi.assign有锁定顺序的意识,所以如果你给它提供一个锁定level的DataFrame这不会解锁它们,这样后续的stack/unstack等操作将保持原来的列和行的顺序

    2.2K20编辑于 2023-09-04
  • 来自专栏Hadoop数据仓库

    Pentaho Work with Big Data(二)—— Kettle提交Spark作业

    192.168.56.104安装Pentaho的PDI,安装目录为/home/grid/data-integration。 Hadoop版本:2.7.2 Spark版本:1.5.0 PDI版本:6.0 Spark集群的安装配置参考 http://blog.csdn.net/wzy0623/article/details 在PDI主机上安装Spark客户端 将Spark的安装目录和相关系统环境设置文件拷贝到PDI所在主机 在192.168.56.101上执行以下命令 scp -r /home/grid/spark 修改PDI的Spark例子 cp /home/grid/data-integration/samples/jobs/Spark\ Submit/Spark\ submit.kjb /home/grid

    78730编辑于 2022-05-07
  • 来自专栏Hadoop数据仓库

    Pentaho Work with Big Data(一)—— Kettle连接Hadoop集群

    192.168.56.104安装Pentaho的PDI,安装目录为/root/data-integration。 Hadoop版本:2.7.2 PDI版本:6.0 Hadoop集群的安装配置参考 http://blog.csdn.net/wzy0623/article/details/50681554 拷贝Hadoop的配置文件到PDI的相应目录下 在192.168.56.101上执行以下命令 scp /home/grid/hadoop/etc/hadoop/hdfs-site.xml root 在安装PDI的主机上建立访问Hadoop集群的用户 我的Hadoop集群的属主是grid,所以执行以下命令建立相同的用户 useradd -d /home/grid -m grid usermod 修改PDI安装目录的属主为grid mv /root/data-integration /home/grid/ chown -R grid:root /home/grid/data-integration

    1.2K10编辑于 2022-05-07
  • 来自专栏杨飞@益术

    Kettle使用小结

    /www.kettle.net.cn/ ⏬下载地址:https://jaist.dl.sourceforge.net/project/pentaho/Pentaho 9.1/client-tools/pdi-ce 启动方式:解压到本地,mac启动方式 /路径/pdi-ce-9.1.0.0-324/data-integration/spoon.sh ⚠️MySql数据抽取:如果使用MySql数据库下载jar https ://download.csdn.net/download/yangfeixien/13755948 放到 /路径/pdi-ce-9.1.0.0-324/data-integration/lib/ ?

    1.8K40发布于 2020-12-23
  • 来自专栏图像处理与模式识别研究所

    业界最有名的开源ETL工具Kettle与Excel连接。

    1、点击[8.2稳定] 2、点击[开始下载] 3、点击[打开文件夹] 4、点击[pdi-ce-9.0.0.0-423.zip] 5、点击[解压到] 6、点击[立即解压] 7、点击[pdi-ce

    1.4K30编辑于 2022-05-28
领券