airflow.providers.apache.spark.hooks.spark_jdbc_script

模块内容

函数

set_common_options(spark_source[, url, jdbc_table, ...])

从 JDBC 连接获取 Spark 源。

spark_write_to_jdbc(spark_session, url, user, ...)

将数据从 Spark 传输到 JDBC 源。

spark_read_from_jdbc(spark_session, url, user, ...)

将数据从 JDBC 源传输到 Spark。

属性

SPARK_WRITE_TO_JDBC

SPARK_READ_FROM_JDBC

airflow.providers.apache.spark.hooks.spark_jdbc_script.SPARK_WRITE_TO_JDBC: str = 'spark_to_jdbc'[源代码]
airflow.providers.apache.spark.hooks.spark_jdbc_script.SPARK_READ_FROM_JDBC: str = 'jdbc_to_spark'[源代码]
airflow.providers.apache.spark.hooks.spark_jdbc_script.set_common_options(spark_source, url='localhost:5432', jdbc_table='default.default', user='root', password='root', driver='driver')[源代码]

从 JDBC 连接获取 Spark 源。

参数
  • spark_source (Any) – Spark 源,这里是 Spark 读取器或写入器

  • url (str) – JDBC 资源 URL

  • jdbc_table (str) – JDBC 资源表名

  • user (str) – JDBC 资源用户名

  • password (str) – JDBC 资源密码

  • driver (str) – JDBC 资源驱动

airflow.providers.apache.spark.hooks.spark_jdbc_script.spark_write_to_jdbc(spark_session, url, user, password, metastore_table, jdbc_table, driver, truncate, save_mode, batch_size, num_partitions, create_table_column_types)[源代码]

将数据从 Spark 传输到 JDBC 源。

airflow.providers.apache.spark.hooks.spark_jdbc_script.spark_read_from_jdbc(spark_session, url, user, password, metastore_table, jdbc_table, driver, save_mode, save_format, fetch_size, num_partitions, partition_column, lower_bound, upper_bound)[源代码]

将数据从 JDBC 源传输到 Spark。

此条目是否有帮助?