Ubuntu 服务器中的预定顺序作业
Scheduled sequential jobs in Ubuntu server
我想为我的 Ubuntu 14.04.4 服务器编写两个预定作业。这些工作需要是连续的。
第一个作业应该解压一个 .gz 文件(SQL 转储),然后将 table "myTable" 导入 MySQL 数据库(本地主机)。
第二个作业(使用 Pentaho 数据集成工具编写)从 table "myTable" 中提取数据,对其进行转换并将其加载到新数据库中。
我本可以使用 pentaho PDI spoon 完成第一个任务,但它没有提供任何解压缩 .gz 文件的功能,并且经过一些研究后发现了这些帖子:
http://forums.pentaho.com/showthread.php?82566-How-to-use-the-content-of-a-tar-gz-file-in-Kettle
How to uncompress and import a .tar.gz file in kettle?
我发现我应该手动编写一个作业来完成第一个任务,即解压缩一个 .gz 文件,然后将 table "myTable" 导入 MySQL 数据库。
我的问题是如何创建一个按顺序执行这两个作业的 cron 作业,即第一个作业先完成,然后执行第二个作业。
如果有更好的替代方法,请提出建议。
您可以在 PDI 作业中使用 "SHELL" 步骤。在 shell 步骤中对代码的解压缩部分进行编码,然后按顺序进行转换。示例图像如下所示:
现在您可以在 CRON 或任何其他调度程序中安排此完整作业。不需要单独的脚本。
注意:这仅适用于 linux 环境。我假设你正在使用。
希望这对您有所帮助:)
我想为我的 Ubuntu 14.04.4 服务器编写两个预定作业。这些工作需要是连续的。
第一个作业应该解压一个 .gz 文件(SQL 转储),然后将 table "myTable" 导入 MySQL 数据库(本地主机)。
第二个作业(使用 Pentaho 数据集成工具编写)从 table "myTable" 中提取数据,对其进行转换并将其加载到新数据库中。
我本可以使用 pentaho PDI spoon 完成第一个任务,但它没有提供任何解压缩 .gz 文件的功能,并且经过一些研究后发现了这些帖子:
http://forums.pentaho.com/showthread.php?82566-How-to-use-the-content-of-a-tar-gz-file-in-Kettle
How to uncompress and import a .tar.gz file in kettle?
我发现我应该手动编写一个作业来完成第一个任务,即解压缩一个 .gz 文件,然后将 table "myTable" 导入 MySQL 数据库。
我的问题是如何创建一个按顺序执行这两个作业的 cron 作业,即第一个作业先完成,然后执行第二个作业。
如果有更好的替代方法,请提出建议。
您可以在 PDI 作业中使用 "SHELL" 步骤。在 shell 步骤中对代码的解压缩部分进行编码,然后按顺序进行转换。示例图像如下所示:
现在您可以在 CRON 或任何其他调度程序中安排此完整作业。不需要单独的脚本。
注意:这仅适用于 linux 环境。我假设你正在使用。
希望这对您有所帮助:)