airflow.providers.amazon.aws.transfers.salesforce_to_s3¶
类¶
提交一个 Salesforce 查询并将结果上传到 AWS S3。 |
模块内容¶
- 类 airflow.providers.amazon.aws.transfers.salesforce_to_s3.SalesforceToS3Operator(*, salesforce_query, s3_bucket_name, s3_key, salesforce_conn_id, export_format='csv', query_params=None, include_deleted=False, coerce_to_timestamp=False, record_time_added=False, aws_conn_id='aws_default', replace=False, encrypt=False, gzip=False, acl_policy=None, **kwargs)[source]¶
基类:
airflow.models.BaseOperator
提交一个 Salesforce 查询并将结果上传到 AWS S3。
另请参阅
有关如何使用此操作符的更多信息,请参阅指南:从 Salesforce 提取数据到 Amazon S3 传输操作符
- 参数:
salesforce_query (str) – 要发送到 Salesforce 的查询。
s3_bucket_name (str) – 要上传到的存储桶名称。
s3_key (str) – 上传文件时要设置的对象名称。
salesforce_conn_id (str) – 包含连接 Salesforce 所需参数的连接名称。
export_format (str) – 希望导出的文件格式。
query_params (dict | None) – 要传递给查询 Salesforce 的 HTTP 请求的附加可选参数。
include_deleted (bool) – 如果查询应包含已删除的记录,则为 True。
coerce_to_timestamp (bool) – 如果希望所有日期时间字段转换为 Unix 时间戳,则为 True。如果希望它们保持与 Salesforce 中相同的格式,则为 False。将值设置为 False 将导致日期时间字段为字符串。默认值: False
record_time_added (bool) – 如果希望在结果数据中添加一个 Unix 时间戳字段,标记数据从 Salesforce 抓取的时间,则为 True。默认值: False
aws_conn_id (str | None) – 包含连接 S3 所需参数的连接名称。
replace (bool) – 用于决定是否覆盖已存在的 S3 键的标志。如果设置为 False 且键已存在,则会引发错误。
encrypt (bool) – 如果为 True,文件将在服务器端由 S3 加密,并在静止时以加密形式存储在 S3 中。
gzip (bool) – 如果为 True,文件将在本地进行压缩。
acl_policy (str | None) – 指定上传到 S3 存储桶文件的预设 ACL 策略的字符串。
- template_fields: collections.abc.Sequence[str] = ('salesforce_query', 's3_bucket_name', 's3_key')[source]¶
- template_ext: collections.abc.Sequence[str] = ('.sql',)[source]¶