如何知道是什么导致 Apache Airflow 中的简单 DAG 失败?

How to know what caused a simple DAG in Apache Airflow to fail?

我是 Apache Airflow 的新手。 我想创建一个简单的 DAG,其中包含一个在虚拟环境中启动 python 脚本的任务:

from airflow import DAG
from datetime import datetime, timedelta
from airflow.operators.bash import BashOperator
with DAG("Inference_DAG", 
        start_date=datetime(2022,1,1), 
        schedule_interval=timedelta(hours=12), 
        catchup=False,
        max_active_runs=1
        ) as dag:

    task_a = BashOperator(
        task_id="Inference_task_a",
        bash_command="/home/xfd/folder/env/bin/python3 compute.py",
        retries =1,

    )

触发DAG失败。

我如何才能更多地了解导致失败的原因?我已经看到 Airflow 与 Sentry 集成 (https://airflow.apache.org/docs/apache-airflow/stable/logging-monitoring/errors.html?highlight=error)。但是,对于像这样的简单 dag 来说,它可能有点矫枉过正。

理想情况下,我希望获得控制台命令的输出 /home/xfd/folder/env/bin/python3 compute.py 以便轻松调试出错的地方。 我如何在 Apache Airflow 中跟踪像这样的简单 DAG 的错误?

如果你进入DAG并点击红色的任务,你可以点击“日志”,在那里你会看到错误