有没有办法从正在执行的 pyspark 脚本中获取胶水作业的成功或失败状态?
Is there any way to get the success or failed status of a glue job from inside the pyspark script that is being executed?
您好,我是 AWS Glue 的新手。有什么可能的方法可以找到我 运行 的胶水脚本的工作状态并在 MySQL 中更新。我试图在脚本内部完成执行后获取胶水脚本的状态。
从下面的代码中,我只获得 运行 的状态,如 Mysql 中更新的那样,但它应该是成功或失败。
myNewJobRun = glue_client.start_job_run(JobName=GLUE_JOB)
status = glue_client.get_job_run(JobName=GLUE_JOB, RunId=myNewJobRun['JobRunId'])
print ("GLUE_JOB run ID: " + myNewJobRun['JobRunId'])
print ("GLUE_JOB run State: " +status['JobRun']['JobRunState'])
您可能还想检查重试作业的状态(如果您已启用重试)。 Glue 分配一个新的 JobRunId,后缀为“attempt”。
您好,我是 AWS Glue 的新手。有什么可能的方法可以找到我 运行 的胶水脚本的工作状态并在 MySQL 中更新。我试图在脚本内部完成执行后获取胶水脚本的状态。
从下面的代码中,我只获得 运行 的状态,如 Mysql 中更新的那样,但它应该是成功或失败。
myNewJobRun = glue_client.start_job_run(JobName=GLUE_JOB)
status = glue_client.get_job_run(JobName=GLUE_JOB, RunId=myNewJobRun['JobRunId'])
print ("GLUE_JOB run ID: " + myNewJobRun['JobRunId'])
print ("GLUE_JOB run State: " +status['JobRun']['JobRunState'])
您可能还想检查重试作业的状态(如果您已启用重试)。 Glue 分配一个新的 JobRunId,后缀为“attempt”。