DatabricksTaskOperator

使用 DatabricksTaskOperator 在 Databricks 上以 Airflow 任务的形式启动和监控任务运行。这既可以作为 DAG 中的独立 operator 使用,也可以通过将其用作 DatabricksWorkflowTaskGroup 中的 operator(任务) 来作为 Databricks Workflow 的一部分使用。

示例

使用 DatabricksTaskOperator 在 Databricks 中运行 notebook

tests/system/databricks/example_databricks.py

    task_operator_nb_1 = DatabricksTaskOperator(
        task_id="nb_1",
        databricks_conn_id="databricks_conn",
        job_cluster_key="Shared_job_cluster",
        task_config={
            "notebook_task": {
                "notebook_path": "/Shared/Notebook_1",
                "source": "WORKSPACE",
            },
            "libraries": [
                {"pypi": {"package": "Faker"}},
                {"pypi": {"package": "simplejson"}},
            ],
        },
    )

使用 DatabricksTaskOperator 在 Databricks 中运行 SQL 查询

tests/system/databricks/example_databricks.py

    task_operator_sql_query = DatabricksTaskOperator(
        task_id="sql_query",
        databricks_conn_id="databricks_conn",
        task_config={
            "sql_task": {
                "query": {
                    "query_id": QUERY_ID,
                },
                "warehouse_id": WAREHOUSE_ID,
            }
        },
    )

此条目是否有帮助?