Kettle最早是一个开源的ETL(Extract-Transform-Load的缩写)工具,全称为KDE Extraction, Transportation, Transformation and Loading Environment。后来Kettle重命名为Pentaho Data Integration 。 它由Java开发,支持跨平台运行,其特性包括:支持100%无编码、拖拽方式开发ETL数据管道;可对接包括传统数据库、文件、大数据平台、接口、流数据等数据源;支持ETL数据管道加入机器学习算法。 Kettle是一个实现ETL开发的一款开发工具,Spoon是Kettle工具提供的图形化界面。
2025-07-22 09:39:36 970.64MB etl java kettle spoon
1
kettle版本需9.4.0.0-343 1、解压后放入data-integration\plugins目录下 2、重启spoon 3、在转换下批量加载中可以看到此插件 4、插件配置:其中Fenodes应配置“ip:端口”端口为http_port默认8030 5、数据库信息按情况填写,其他内容保持默认即可。注意表字段的大小写要和流字段的保持一致 Kettle-Spoon是Pentaho公司的一款开源ETL工具,用于进行数据转换和抽取。doris是一个高性能的分析型数据库,适用于海量数据的实时分析。doris官方提供的doris-stream-loader是Kettle-Spoon的一个插件,用于将数据高效地从Kettle抽取到doris数据库中。 使用该插件需要首先检查Kettle的版本是否满足要求,即为9.4.0.0-343版本。一旦确认版本无误,便可以将doris-stream-loader插件解压并放入data-integration\plugins目录下。操作完成后,需要重启spoon,即Kettle的图形化界面,以确保插件能够被正确加载和识别。 重启后,在spoon界面的“转换”下选择“批量加载”,便可以看到新增的doris-stream-loader插件。这时,便可以对插件进行配置。配置主要包括两部分,首先是Fenodes配置。Fenodes指的是doris集群中的节点,需要按照“ip:端口”的格式进行配置,而端口通常情况下是http_port,其默认值为8030。还需要填写数据库信息。在配置数据库信息时,需要注意表字段的大小写要与流字段保持一致,以避免数据不匹配的问题。 doris-stream-loader插件的使用大大提高了数据从Kettle抽取到doris数据库的效率,这对于需要进行大数据量处理的用户来说是一个福音。但需要注意的是,使用该插件时,对Kettle和doris的版本和配置都有一定的要求,只有在严格遵循操作步骤和配置要求的前提下,才能确保数据抽取的顺利和高效。
2025-07-21 11:36:33 502KB doris kettle spoon
1
Kettle、Spoon数据同步工具7.0版本 SQL Server、MySQL数据库jar包等
2025-07-15 13:34:34 898.3MB sql
1
标题中的"spoon"通常指的是Pentaho Data Integration(PDI),也被称为Kettle。这是一个开源的数据集成工具,用于ETL(数据抽取、转换、加载)过程。它提供了图形化的界面,让用户可以通过拖拽的方式构建复杂的数据库数据处理流程。这个安装包声称"解压即可使用",意味着它可能是一个便携版本,无需进行复杂安装步骤,只需将其解压缩到本地文件系统,用户就可以直接运行。 描述中提到"已经放了数据库驱动的jar包,不用重新放",这表明该压缩包内包含了必要的数据库连接驱动,用户在进行数据整合工作时,无需额外下载和配置这些驱动。PDI支持多种数据库,如MySQL、Oracle、SQL Server等,这些驱动使得PDI能够与各种数据库系统进行通信,执行数据提取、转换和加载任务。 在标签中提到了"软件/插件",这暗示PDI可能是作为一个独立软件提供,同时也可能包含了一些插件,以扩展其功能。PDI本身就是一个强大的工具,但通过安装社区或商业提供的插件,可以增加更多的数据处理和集成选项,例如支持新的数据源、数据格式或者特定的转换操作。 至于压缩包内的"data-integration"文件夹,这很可能是PDI的主要工作目录。在这个目录下,通常会包含以下几个部分: 1. `lib`目录:这里存放了PDI运行所需的库文件,包括数据库驱动的JAR文件,以及PDI自身和其他依赖的库。 2. `plugins`目录:可能包含各种插件,每个插件通常有自己的子目录,包含了插件的Java代码、资源文件和配置。 3. `samples`目录:可能包含一些示例工作流和转换,供新用户学习和参考。 4. `kettle.properties`:这是PDI的主要配置文件,用户可以在这里设置一些全局参数,如日志路径、数据存储位置等。 5. ` spoon.bat`或`spoon.sh`:这是启动Spoon(PDI的图形化客户端)的脚本文件,用户可以通过运行这个脚本来启动工具。 使用这个压缩包,用户可以直接开始进行数据集成工作,创建数据转换和工作流,进行数据清洗、转换、加载等操作。由于已经包含了数据库驱动,用户可以方便地连接到各种数据库,进行数据抽取和加载,这对于数据分析师、数据工程师和ETL开发者来说非常便利。不过,为了更好地利用PDI,用户还需要熟悉其图形化界面和各类组件的用法,这可能需要阅读官方文档或在线教程来学习。
2024-09-24 16:39:19 793.14MB
1
ppt介绍了 ETL的流程以及Spoon图形化界面的简单使用,以及carte,pan.kitchen的使用
2023-02-09 21:12:31 2.48MB kettle Spoon carte etl
1
在不同数据库中,对数据解决换行处理,并使用kettle工具进行数据报盘,和符合国家的命名规则进行压缩等
2022-09-08 18:04:28 757KB oracle 数据报盘 kettle
1
利用Spoon进行的实验 【实验目的】 熟悉Kettle,pyecharm,matplotplb,MySQL+Workbench等软件的使用。 【实验要求】 将光碟租赁点存放在MySql数据库sakila中的记录整个租赁行为以及表征租赁内容的数据加载到数据仓库sakila dwh中,然后再对数据仓库中的数据使用Python的matplotlib库做数据的可视化。
2022-06-12 18:03:11 4.44MB kettle Spoon 大数据
1
Spoon的环境支持(1.8jdk,1.8jre 需要搭建环境可以下载通用的)
2022-04-18 17:02:13 72.14MB Spoon 稳定的环境支持
1
Kettle是一款国外开源的ETL工具,纯java编写,可以在Windows、Linux、Unix上运行,数据抽取高效稳定。
2022-04-06 00:29:20 938.86MB java windows linux unix
1
restclient组件的使用方法细则,最近客户给了一批地域信息让生成他们的经纬度,刚开始使用python写代码生成的。正好好长时间没有用过kettle了,所以用Kettle又做了一遍
2022-02-14 22:07:48 1KB kettle spoon restinpeace
1