集群策略¶
如果您想在集群范围内检查或更改 DAG 或任务,那么集群策略将允许您这样做。它们有三个主要目的
检查 DAG/任务是否符合特定标准
在 DAG/任务上设置默认参数
执行自定义路由逻辑
有三种主要类型的集群策略
task_policy
:接受一个名为task
的BaseOperator
参数。在加载时从 DagBag 解析任务期间创建任务时,将执行该策略。这意味着可以在任务策略中更改整个任务定义。它与 DagRun 中运行的特定任务无关。定义的task_policy
应用于将来要执行的所有任务实例。task_instance_mutation_hook
:接受一个名为task_instance
的TaskInstance
参数。task_instance_mutation_hook
不适用于任务,而是适用于与特定 DagRun 相关的任务实例。它在“工作进程”中执行,而不是在 DAG 文件处理器中,就在执行任务实例之前执行。该策略仅应用于该任务当前执行的运行(即实例)。
DAG 和任务集群策略可以引发 AirflowClusterPolicyViolation
异常,以表明传递给它们的 DAG/任务不兼容,不应加载。
当有必要跳过该 DAG 时,它们还可以引发 AirflowClusterPolicySkipDag
异常。与 AirflowClusterPolicyViolation
不同,此异常不会显示在 Airflow Web UI 中(在内部,它不会记录在元数据库的 import_error
表中)。
集群策略设置的任何额外属性都优先于 DAG 文件中定义的属性;例如,如果你在 DAG 文件中的任务上设置了 sla
,然后集群策略也设置了 sla
,则集群策略的值将优先。
如何定义策略函数¶
有两种方法可以配置集群策略
在 Python 搜索路径中的某个位置($AIRFLOW_HOME 下的
config/
文件夹是一个不错的“默认”位置)创建一个airflow_local_settings.py
文件,然后将可调用对象添加到与上述一个或多个集群策略名称(例如dag_policy
)匹配的文件中。
有关如何配置本地设置的详细信息,请参阅 配置本地设置。
通过使用 setuptools 入口点 在使用 Pluggy 接口的自定义模块中。
2.6 版新增功能。
此方法更高级,适用于已经熟悉 Python 打包的人员。
首先在模块中创建策略函数
from airflow.policies import hookimpl @hookimpl def task_policy(task) -> None: # Mutate task in place # ... print(f"Hello from {__file__}")
然后将入口点添加到项目规范中。例如,使用
pyproject.toml
和setuptools
[build-system] requires = ["setuptools", "wheel"] build-backend = "setuptools.build_meta" [project] name = "my-airflow-plugin" version = "0.0.1" # ... dependencies = ["apache-airflow>=2.6"] [project.entry-points.'airflow.policy'] _ = 'my_airflow_plugin.policies'
入口点组必须是
airflow.policy
,并且忽略名称。该值应该是用@hookimpl
标记装饰的模块(或类)。完成上述操作后,并将发行版安装到 Airflow 环境中,策略函数将由各个 Airflow 组件调用。(确切的调用顺序是未定义的,因此如果您有多个插件,请不要依赖任何特定的调用顺序)。
需要注意的一件重要事情(对于定义策略函数的任何方法)是,参数名称必须与下面记录的完全匹配。
可用的策略函数¶
- airflow.policies.task_policy(task)[source]¶
允许在 DagBag 中加载任务后对其进行更改。
它允许管理员重新连接某些任务的参数。或者,您可以引发
AirflowClusterPolicyViolation
异常以阻止执行 DAG。以下是一些有关如何使用此功能的示例
您可以使用
SparkOperator
为使用spark
队列的任务强制执行特定的队列(比如spark
队列),以确保这些任务连接到正确的 worker您可以强制执行任务超时策略,确保没有任务运行超过 48 小时
- 参数
任务 (airflow.models.baseoperator.BaseOperator) – 要突变的任务
- airflow.policies.dag_policy(dag)[source]¶
允许在 DagBag 中加载 DAG 后对其进行更改。
它允许管理员重新设置一些 DAG 的参数。或者,你可以引发
AirflowClusterPolicyViolation
异常以阻止 DAG 执行。以下是一些有关如何使用此功能的示例
你可以为 DAG 强制执行默认用户
检查每个 DAG 是否配置了标签
- 参数
dag (airflow.models.dag.DAG) – 要突变的 dag
- airflow.policies.task_instance_mutation_hook(task_instance)[source]¶
允许在 Airflow 调度程序排队之前更改任务实例。
例如,这可用于在重试期间修改任务实例。
- 参数
task_instance (airflow.models.taskinstance.TaskInstance) – 要突变的任务实例
示例¶
DAG 策略¶
此策略检查每个 DAG 是否至少定义了一个标签
def dag_policy(dag: DAG):
"""Ensure that DAG has at least one tag and skip the DAG with `only_for_beta` tag."""
if not dag.tags:
raise AirflowClusterPolicyViolation(
f"DAG {dag.dag_id} has no tags. At least one tag required. File path: {dag.fileloc}"
)
if "only_for_beta" in dag.tags:
raise AirflowClusterPolicySkipDag(
f"DAG {dag.dag_id} is not loaded on the production cluster, due to `only_for_beta` tag."
)
注意
为避免导入循环,如果你在集群策略中的类型注释中使用 DAG
,请务必从 airflow.models
导入,而不是从 airflow
导入。
注意
DAG 策略在 DAG 完全加载后应用,因此覆盖 default_args
参数无效。如果你想覆盖默认操作符设置,请改用任务策略。
任务策略¶
以下是如何对每个任务强制执行最大超时策略的示例
class TimedOperator(BaseOperator, ABC):
timeout: timedelta
def task_policy(task: TimedOperator):
if task.task_type == "HivePartitionSensor":
task.queue = "sensor_queue"
if task.timeout > timedelta(hours=48):
task.timeout = timedelta(hours=48)
你还可以实施保护措施来防范常见错误,而不是作为技术安全控制。例如,不要运行没有 airflow 所有者的任务
def task_must_have_owners(task: BaseOperator):
if task.owner and not isinstance(task.owner, str):
raise AirflowClusterPolicyViolation(f"""owner should be a string. Current value: {task.owner!r}""")
if not task.owner or task.owner.lower() == conf.get("operators", "default_owner"):
raise AirflowClusterPolicyViolation(
f"""Task must have non-None non-default owner. Current value: {task.owner}"""
)
如果你有多个检查要应用,最佳做法是在单独的 python 模块中整理这些规则,并使用一个策略/任务修改钩子来执行这些自定义检查中的多个检查,并将各种错误消息汇总在一起,以便在 UI(和数据库中的导入错误表)中报告单个 AirflowClusterPolicyViolation
。
例如,你的 airflow_local_settings.py
可能遵循此模式
TASK_RULES: list[Callable[[BaseOperator], None]] = [
task_must_have_owners,
]
def _check_task_rules(current_task: BaseOperator):
"""Check task rules for given task."""
notices = []
for rule in TASK_RULES:
try:
rule(current_task)
except AirflowClusterPolicyViolation as ex:
notices.append(str(ex))
if notices:
notices_list = " * " + "\n * ".join(notices)
raise AirflowClusterPolicyViolation(
f"DAG policy violation (DAG ID: {current_task.dag_id}, Path: {current_task.dag.fileloc}):\n"
f"Notices:\n"
f"{notices_list}"
)
def example_task_policy(task: BaseOperator):
"""Ensure Tasks have non-default owners."""
_check_task_rules(task)
有关如何配置本地设置的详细信息,请参阅 配置本地设置。
任务实例突变¶
以下是一个将处于第二次(或更多)重试中的任务重新路由到不同队列的示例
def task_instance_mutation_hook(task_instance: TaskInstance):
if task_instance.try_number >= 1:
task_instance.queue = "retry_queue"
请注意,由于优先级权重是使用权重规则动态确定的,因此您不能在突变挂钩中更改任务实例的 priority_weight
。