airflow.providers.apache.spark.hooks.spark_jdbc_script

属性

SPARK_WRITE_TO_JDBC

SPARK_READ_FROM_JDBC

函数

set_common_options(spark_source[, url, jdbc_table, ...])

从 JDBC 连接获取 Spark source。

spark_write_to_jdbc(spark_session, url, user, ...)

将数据从 Spark 传输到 JDBC source。

spark_read_from_jdbc(spark_session, url, user, ...)

将数据从 JDBC source 传输到 Spark。

模块内容

airflow.providers.apache.spark.hooks.spark_jdbc_script.SPARK_WRITE_TO_JDBC: str = 'spark_to_jdbc'[source]
airflow.providers.apache.spark.hooks.spark_jdbc_script.SPARK_READ_FROM_JDBC: str = 'jdbc_to_spark'[source]
airflow.providers.apache.spark.hooks.spark_jdbc_script.set_common_options(spark_source, url='localhost:5432', jdbc_table='default.default', user='root', password='root', driver='driver')[source]

从 JDBC 连接获取 Spark source。

参数:
  • spark_source (Any) – Spark source,这里是 Spark reader 或 writer

  • url (str) – JDBC 资源 url

  • jdbc_table (str) – JDBC 资源表名

  • user (str) – JDBC 资源用户名

  • password (str) – JDBC 资源密码

  • driver (str) – JDBC 资源驱动

airflow.providers.apache.spark.hooks.spark_jdbc_script.spark_write_to_jdbc(spark_session, url, user, password, metastore_table, jdbc_table, driver, truncate, save_mode, batch_size, num_partitions, create_table_column_types)[source]

将数据从 Spark 传输到 JDBC source。

airflow.providers.apache.spark.hooks.spark_jdbc_script.spark_read_from_jdbc(spark_session, url, user, password, metastore_table, jdbc_table, driver, save_mode, save_format, fetch_size, num_partitions, partition_column, lower_bound, upper_bound)[source]

将数据从 JDBC source 传输到 Spark。

此条目是否有帮助?