airflow.providers.alibaba.cloud.operators.analyticdb_spark
¶
模块内容¶
类¶
定义用户如何开发 AnalyticDB Spark 的抽象基类。 |
|
将 Spark SQL 应用程序提交到底层集群;包装 AnalyticDB Spark REST API。 |
|
将 Spark 批处理应用程序提交到底层集群;包装 AnalyticDB Spark REST API。 |
- class airflow.providers.alibaba.cloud.operators.analyticdb_spark.AnalyticDBSparkBaseOperator(*, adb_spark_conn_id='adb_spark_default', region=None, polling_interval=0, **kwargs)[source]¶
基类:
airflow.models.BaseOperator
定义用户如何开发 AnalyticDB Spark 的抽象基类。
- class airflow.providers.alibaba.cloud.operators.analyticdb_spark.AnalyticDBSparkSQLOperator(*, sql, conf=None, driver_resource_spec=None, executor_resource_spec=None, num_executors=None, name=None, cluster_id, rg_name, **kwargs)[source]¶
基类:
AnalyticDBSparkBaseOperator
将 Spark SQL 应用程序提交到底层集群;包装 AnalyticDB Spark REST API。
- 参数
sql (str) – 要执行的 SQL 查询。
conf (dict[Any, Any] | None) – Spark 配置属性。
driver_resource_spec (str | None) – Spark 驱动程序的资源规范。
executor_resource_spec (str | None) – 每个 Spark 执行器的资源规范。
name (str | None) – 此应用程序的名称。
cluster_id (str) – AnalyticDB MySQL 3.0 数据湖仓的集群 ID。
rg_name (str) – AnalyticDB MySQL 3.0 数据湖仓集群中的资源组的名称。
- template_fields: collections.abc.Sequence[str] = ('spark_params',)[source]¶
- class airflow.providers.alibaba.cloud.operators.analyticdb_spark.AnalyticDBSparkBatchOperator(*, file, class_name=None, args=None, conf=None, jars=None, py_files=None, files=None, driver_resource_spec=None, executor_resource_spec=None, num_executors=None, archives=None, name=None, cluster_id, rg_name, **kwargs)[source]¶
基类:
AnalyticDBSparkBaseOperator
将 Spark 批处理应用程序提交到底层集群;包装 AnalyticDB Spark REST API。
- 参数
file (str) – 包含要执行的应用程序的文件路径。
class_name (str | None) – 应用程序 Java/Spark 主类的名称。
args (collections.abc.Sequence[str | int | float] | None) – 应用程序命令行参数。
conf (dict[Any, Any] | None) – Spark 配置属性。
jars (collections.abc.Sequence[str] | None) – 此应用程序中要使用的 jar 包。
py_files (collections.abc.Sequence[str] | None) – 此应用程序中要使用的 python 文件。
files (collections.abc.Sequence[str] | None) – 此应用程序中要使用的文件。
driver_resource_spec (str | None) – Spark 驱动程序的资源规范。
executor_resource_spec (str | None) – 每个 Spark 执行器的资源规范。
archives (collections.abc.Sequence[str] | None) – 此应用程序中要使用的压缩文件。
name (str | None) – 此应用程序的名称。
cluster_id (str) – AnalyticDB MySQL 3.0 数据湖仓的集群 ID。
rg_name (str) – AnalyticDB MySQL 3.0 数据湖仓集群中的资源组的名称。
- template_fields: collections.abc.Sequence[str] = ('spark_params',)[source]¶