DatabricksRunNowOperator¶
使用 DatabricksRunNowOperator
通过 api/2.1/jobs/run-now API 端点触发现有 Databricks 作业的运行。
使用操作符¶
有两种方法可以实例化此操作符。第一种方法是,您可以获取通常用于调用 api/2.1/jobs/run-now
端点的 JSON 有效负载,并将其直接传递给我们的 DatabricksRunNowOperator
,通过 json
参数。
实现相同目的的另一种方法是直接使用 DatabricksRunNowOperator
的命名参数。请注意,jobs/run-now
端点中每个顶层参数都有一个对应的命名参数。
唯一必需的参数是以下两者之一:
job_id
- 指定现有 Databricks 作业的 IDjob_name
- 现有 Databricks 作业的名称。如果找不到作业,或者存在多个同名作业,则会抛出异常。
所有其他参数都是可选的,并在 DatabricksRunNowOperator
的文档中进行了描述。例如,您可以使用以下参数之一向作业传递其他参数,具体取决于作业中任务的类型:
notebook_params
python_params
python_named_parameters
jar_params
spark_submit_params
idempotency_token
repair_run
cancel_previous_runs
DatabricksRunNowDeferrableOperator¶
DatabricksRunNowOperator
操作符的可延迟版本。
它允许使用 Airflow 2.2.0 中引入的新功能,更有效地利用 Airflow 工作人员。